JP2014093043A - Face image analyzer and face image analysis method - Google Patents

Face image analyzer and face image analysis method Download PDF

Info

Publication number
JP2014093043A
JP2014093043A JP2012244698A JP2012244698A JP2014093043A JP 2014093043 A JP2014093043 A JP 2014093043A JP 2012244698 A JP2012244698 A JP 2012244698A JP 2012244698 A JP2012244698 A JP 2012244698A JP 2014093043 A JP2014093043 A JP 2014093043A
Authority
JP
Japan
Prior art keywords
face image
component
cumulative
dark
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244698A
Other languages
Japanese (ja)
Other versions
JP6008698B2 (en
Inventor
Takanori Igarashi
崇訓 五十嵐
Yen Wei Chen
延偉 陳
Junji Moriguchi
順二 守口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2012244698A priority Critical patent/JP6008698B2/en
Publication of JP2014093043A publication Critical patent/JP2014093043A/en
Application granted granted Critical
Publication of JP6008698B2 publication Critical patent/JP6008698B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for highly accurate quantization of the quality of the entire face based on a face image.SOLUTION: A face analyzer obtains average face image information and a plurality of basis functions relating to a plurality of sample face images normalized in terms of shape, and analyzes the principal component of an analysis target face image normalized in face, thereby calculating each of the basis coefficients for the analysis target face image. On the basis of each basis coefficient, the basis functions and average face image information, the face analyzer forms each of reproduced face images corresponding to the next cumulative contribution rate for a prescribed accuracy, and calculates the differences between the reproduced face images in terms of brightness and darkness information, thereby obtaining at least the brightness difference image or darkness difference image for each of the pair of adjacent cumulative contribution rates. The face image analyzer calculates at least a brightness component central value or a darkness component central value for each of the pairs of adjacent cumulative contribution rates. The face image analyzer calculates at least a brightness component cumulative value or darkness component cumulative value for each of the pairs of adjacent cumulative contribution rates.

Description

本発明は、顔画像の分析技術に関する。   The present invention relates to a technique for analyzing a face image.

画像解析技術等を用いて肌の特定部位を測定し、その測定結果に基づいて透明感やつや等といった肌の質感を客観的に定量化する様々な手法が提案されている。   Various methods have been proposed in which a specific part of the skin is measured using an image analysis technique or the like, and the skin texture such as transparency and gloss is objectively quantified based on the measurement result.

下記特許文献1では、皮膚表面にP偏光及びS偏光を入射させ、その反射光の反射率を算出することにより、皮膚の透明感を評価する手法が提案されている。下記特許文献2及び3では、肌の測定対象部位の輝度を測定することにより得られるヒストグラムの形状に基づいて肌の状態や化粧崩れの度合いを評価する手法が提案されている。下記特許文献4では、肌画像データに対して多重解像度解析等を施すことによりその肌の物理的な光沢度及び肌表面の見かけの粗さに相当する値を取得し、肌のつや状態を評価する手法が提案されている。   Patent Document 1 below proposes a method for evaluating the translucency of skin by making P-polarized light and S-polarized light incident on the skin surface and calculating the reflectance of the reflected light. Patent Documents 2 and 3 below propose a method for evaluating the state of skin and the degree of makeup collapse based on the shape of a histogram obtained by measuring the luminance of a measurement target site of the skin. In Patent Document 4 below, multi-resolution analysis is performed on skin image data to obtain values corresponding to the physical glossiness of the skin and the apparent roughness of the skin surface, and the skin glossiness is evaluated. A technique has been proposed.

下記特許文献5及び6では、顔画像に着目した技術が提案されている。具体的には、下記特許文献5では、顔画像に着目し、所定形状の顔型の顔画像において立体感が異なる合成顔画像を作成する方法が提案されている。上記特許文献6では、規格化された顔画像のテクスチャを主成分分析して複数次の基底ベクトルの重み係数を算出し、低次側の重み係数に基づいて大域的な見た目の印象を評価し、高次側の重み係数に基づいて局所的な見た目の印象を評価する手法が提案されている。   In Patent Documents 5 and 6 below, techniques focusing on face images are proposed. Specifically, Patent Document 5 below proposes a method of creating a synthesized face image having a different stereoscopic effect in a face image of a predetermined shape, focusing on the face image. In the above-mentioned Patent Document 6, the texture of the standardized face image is subjected to principal component analysis to calculate a weight coefficient of a multi-order basis vector, and the global appearance impression is evaluated based on the weight coefficient on the lower order side. A method for evaluating a local appearance impression based on a higher-order side weighting factor has been proposed.

特開2004−215991号公報JP 2004-215991 A 特開2009−134372号公報JP 2009-134372 A 特開2009−131336号公報JP 2009-131336 A 特開2004−166801号公報JP 2004-166801 A 特開2008−276405号公報JP 2008-276405 A 特開2012−8617号公報JP 2012-8617 A

しかしながら、上述の特許文献1から4で提案される各手法は、肌の部分情報を用いているため、各被験者の顔全体の見た目の質感を正確に定量化できていない可能性がある。見た目の質感は、皮膚の凹凸、色むら等、様々な因子を総合的に評価することにより得られるからである。目視による顔全体の質感評価は、顔全体と部分的な肌との両方から得られる情報に寄与すると考えられる。また、特許文献5及び6は、透明感といった顔の質感の評価を提案しているわけではない。   However, each method proposed in Patent Documents 1 to 4 described above uses partial skin information, and thus there is a possibility that the appearance texture of the entire face of each subject cannot be accurately quantified. This is because the texture of the appearance can be obtained by comprehensively evaluating various factors such as unevenness of the skin and uneven color. Visual evaluation of the texture of the entire face is considered to contribute to information obtained from both the entire face and partial skin. Further, Patent Documents 5 and 6 do not propose evaluation of facial texture such as transparency.

本発明は、上述のような点を考慮してなされたものであり、顔画像に基づいて顔全体の質感を高精度に定量化する技術を提供する。   The present invention has been made in view of the above points, and provides a technique for quantifying the texture of the entire face with high accuracy based on a face image.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様に係る顔画像分析装置は、形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、当該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得手段と、形状が規格化された分析対象顔画像を主成分分析することにより、当該分析対象顔画像のための各基底関数の基底係数をそれぞれ算出する主成分分析手段と、主成分分析手段により算出される各基底係数及びサンプル取得手段により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成手段と、隣接する累積寄与率のペアに関し再構成手段により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出手段と、明差分画像及び暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出手段と、上記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、上記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出手段と、を有する。   The face image analysis apparatus according to the first aspect obtains average face image information of a plurality of sample face images whose shapes are standardized and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images. Sample acquisition means, principal component analysis means for calculating a basis coefficient of each basis function for the analysis target face image by principal component analysis of the analysis target face image whose shape is normalized, and a principal component Based on each basis coefficient calculated by the analysis unit and a plurality of basis functions and average face image information acquired by the sample acquisition unit, each reproduction face image corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy is generated. The difference between the light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated by the reconstructing means with respect to the pair of adjacent cumulative contribution ratios. Thus, at least one of the bright difference image from which the darker component is removed than the lower-order reproduced face image and the dark difference image from which the brighter component is removed from the lower-order reproduced face image is used as the adjacent cumulative contribution rate. Difference calculation means for generating each pair, and at least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image Representative value calculating means for calculating each of the adjacent cumulative contribution rate pairs, and at least one of the light component representative value and the dark component representative value for each pair of the adjacent cumulative contribution rates in ascending order of the cumulative contribution rate, respectively. Accumulating value calculating means for calculating at least one of a light component accumulated value and a dark component accumulated value for each pair of the adjacent accumulated contribution ratios by accumulation. That.

第2の態様に係る顔画像分析方法は、少なくとも1つのコンピュータが、形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、当該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得し、分析対象顔画像の形状を規格化し、形状が規格化された分析対象顔画像を主成分分析することにより、当該分析対象顔画像のための各基底関数の基底係数をそれぞれ算出し、算出される各基底係数及び取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成し、当該隣接する累積寄与率のペアに関し生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ生成し、明差分画像及び暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ算出し、上記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、上記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する、ことを含む。   In the face image analysis method according to the second aspect, at least one computer is obtained by average face image information of a plurality of sample face images whose shapes are standardized, and principal component analysis on the plurality of sample face images. By obtaining multiple basis functions, normalizing the shape of the analysis target face image, and performing principal component analysis on the analysis target face image whose shape is normalized, the basis coefficients of each basis function for the analysis target face image Respectively, and based on each calculated basis coefficient and the obtained plurality of basis functions and average face image information, each reproduced face image corresponding to each of the plurality of cumulative contribution rates of a predetermined accuracy is generated, By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated for the adjacent cumulative contribution rate pair, a darker component than the lower-order reproduced face image is obtained. At least one of the left light difference image and the dark difference image from which a brighter component than the lower-order reproduced face image is removed is generated for each pair of adjacent cumulative contribution ratios, and the light difference image and the dark difference image are generated. At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component is calculated for each pair of the adjacent cumulative contribution rates from each color information in the difference image, and the adjacent By accumulating at least one of the light component representative value and the dark component representative value for each pair of cumulative contribution ratios in ascending order of the cumulative contribution ratio, the light component cumulative value and the dark component for each pair of adjacent cumulative contribution ratios. Calculating at least one of the cumulative values.

なお、本発明の別態様としては、上記第1態様に係る各構成をコンピュータに実現させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   As another aspect of the present invention, a program that causes a computer to realize each configuration according to the first aspect may be used, or a computer-readable recording medium that records such a program may be used. . This recording medium includes a non-transitory tangible medium.

上記各態様によれば、顔画像に基づいて顔全体の質感を高精度に定量化する技術を提供することができる。尚、高精度に定量化とは、従来に比べ、人、好ましくは専門パネラの官能評価に近似する内容を客観的に示す値を得ることを意味する。   According to each aspect described above, it is possible to provide a technique for quantifying the texture of the entire face with high accuracy based on the face image. Note that quantification with high accuracy means obtaining a value that objectively represents the contents approximate to the sensory evaluation of a person, preferably a specialized panel, compared to the conventional case.

主成分分析により得られる、平均顔画像と各固有顔画像との線形和を概念的に示す図である。It is a figure which shows notionally the linear sum of an average face image and each eigenface image obtained by principal component analysis. 各再現顔画像の生成例を概念的に示す図である。It is a figure which shows notionally the example of production | generation of each reproduction face image. 明差分画像及び暗差分画像の生成例を概念的に示す図である。It is a figure which shows notionally the example of a production | generation of a bright difference image and a dark difference image. 明成分累積値の算出例を概念的に示す図である。It is a figure which shows notionally the example of calculation of a bright component cumulative value. 第1実施形態における顔画像分析装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the face image analyzer in 1st Embodiment. 第1実施形態における顔画像分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the face image analyzer in 1st Embodiment. 分析対象顔画像に関する明成分グラフの例を示す図である。It is a figure which shows the example of the bright component graph regarding an analysis object face image. 分析対象顔画像に関する暗成分グラフの例を示す図である。It is a figure which shows the example of the dark component graph regarding an analysis object face image. 基準顔画像及び分析対象顔画像に関する明成分グラフの例を示す図である。It is a figure which shows the example of the bright component graph regarding a reference | standard face image and an analysis object face image. 基準顔画像及び分析対象顔画像に関する暗成分グラフの例を示す図である。It is a figure which shows the example of the dark component graph regarding a reference | standard face image and an analysis object face image. 第1実施形態における顔画像分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the face image analyzer in 1st Embodiment. 第2実施形態における顔画像分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the face image analyzer in 2nd Embodiment. 明成分差分グラフの例を示す図である。It is a figure which shows the example of a bright component difference graph. 暗成分差分グラフの例を示す図である。It is a figure which shows the example of a dark component difference graph. 比較グラフの例を示す図である。It is a figure which shows the example of a comparison graph. 化粧前顔画像及び化粧後顔画像を分析対象顔画像とする比較グラフの例を示す図である。It is a figure which shows the example of the comparison graph which uses a face image before makeup and a face image after makeup as an analysis object face image. 5つの透明感顔画像に関する明成分グラフを示す図である。It is a figure which shows the bright component graph regarding five transparent face-sensitive images. 5つの透明感顔画像に関する暗成分グラフを示す図である。It is a figure which shows the dark component graph regarding five transparent face-sensitive images. 68%以上98%以下の累積寄与率の範囲における明成分グラフを示す図である。It is a figure which shows the light component graph in the range of 68% or more and 98% or less of the accumulation contribution rate. 68%以上98%以下の累積寄与率の範囲における暗成分グラフを示す図である。It is a figure which shows the dark component graph in the range of 68 to 98% of the cumulative contribution rate. 代表的な透明感顔画像及び比較対象顔画像に関する明成分グラフを示す図である。It is a figure which shows the light component graph regarding a typical transparent face image and a comparison object face image. 代表的な透明感顔画像及び比較対象顔画像に関する暗成分グラフを示す図である。It is a figure which shows the dark component graph regarding a typical transparent face image and a comparison object face image. 各距離が略等しい幅で増加するような距離の組み合わせに対応する16枚の顔画像と、各顔画像に関し算出される原点からの距離とを示す図である。It is a figure which shows the 16 face images corresponding to the combination of distance which each distance increases by the substantially equal width | variety, and the distance from the origin calculated regarding each face image. 図17に示される各顔画像に関する明成分累積値の差分及び暗成分累積値の差分と、各顔画像に関する官能評価結果とを示す図である。It is a figure which shows the difference of the bright component cumulative value regarding each face image shown by FIG. 17, the difference of dark component cumulative value, and the sensory evaluation result regarding each face image. 図17に示される各顔画像に関し算出される原点からの距離と、各顔画像に関する官能評価結果とを示す図である。It is a figure which shows the distance from the origin calculated regarding each face image shown in FIG. 17, and the sensory evaluation result regarding each face image. 原点からの距離の範囲毎の質感分析結果を示す情報の例を示す図である。It is a figure which shows the example of the information which shows the texture analysis result for every range of the distance from an origin.

以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.

本実施形態に係る顔画像分析装置は、形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、当該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得部と、形状が規格化された分析対象顔画像を主成分分析することにより、当該分析対象顔画像のための各基底関数の基底係数をそれぞれ算出する主成分分析部と、主成分分析部により算出される各基底係数及びサンプル取得部により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成部と、隣接する累積寄与率のペアに関し再構成部により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出部と、明差分画像及び暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出部と、上記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、上記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出部と、を有する。   The face image analysis apparatus according to the present embodiment acquires average face image information of a plurality of sample face images whose shapes are standardized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images. A sample acquisition unit, a principal component analysis unit that calculates a basis coefficient of each basis function for the analysis target face image by performing principal component analysis on the analysis target face image whose shape is normalized, and a principal component analysis Each reproduction face image corresponding to each of the plurality of cumulative contribution ratios of predetermined accuracy is generated based on each basis coefficient calculated by the unit and a plurality of basis functions and average face image information acquired by the sample acquisition unit. By calculating the difference in light and dark information between the reconstruction unit and the lower-order reproduced face image generated by the reconstruction unit with respect to the adjacent cumulative contribution rate pair, At least one of a bright difference image from which darker components are removed than the side reproduction face image and a dark difference image from which brighter components are removed than the lower-order reproduction face image is used for each of the adjacent cumulative contribution ratio pairs. The difference calculation unit to be generated, and at least one of the light component representative value indicating the intensity of the light component and the dark component representative value indicating the intensity of the dark component from the color information in the light difference image and the dark difference image are adjacent to each other. A representative value calculation unit for calculating each pair of cumulative contribution rates, and by accumulating at least one of the light component representative value and the dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of the cumulative contribution rate. And an accumulated value calculating unit for calculating at least one of a light component accumulated value and a dark component accumulated value for each pair of the adjacent accumulated contribution rates.

本実施形態に係る顔画像分析方法は、少なくとも1つのコンピュータが、形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、当該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得し、分析対象顔画像の形状を規格化し、形状が規格化された分析対象顔画像を主成分分析することにより、当該分析対象顔画像のための各基底関数の基底係数をそれぞれ算出し、算出される各基底係数及び取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成し、当該隣接する累積寄与率のペアに関し生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ生成し、明差分画像及び暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、上記隣接する累積寄与率の各ペアについてそれぞれ算出し、上記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、上記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する、ことを含む。   In the face image analysis method according to the present embodiment, at least one computer has a plurality of average face image information of a plurality of sample face images whose shapes are normalized and a plurality of principal component analyzes obtained from the plurality of sample face images. The basis function of each analysis function is obtained by normalizing the shape of the analysis target face image and performing principal component analysis on the analysis target face image whose shape is normalized. Respectively calculated, and based on each calculated basis coefficient and a plurality of obtained basis functions and average face image information, each reproduced face image corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy is generated, By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated for adjacent cumulative contribution ratio pairs, a darker component than the lower-order reproduced face image is obtained. At least one of the left light difference image and the dark difference image from which a brighter component than the lower-order reproduced face image is removed is generated for each pair of adjacent cumulative contribution ratios, and the light difference image and the dark difference image are generated. At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component is calculated for each pair of the adjacent cumulative contribution rates from each color information in the difference image, and the adjacent By accumulating at least one of the light component representative value and the dark component representative value for each pair of cumulative contribution ratios in ascending order of the cumulative contribution ratio, the light component cumulative value and the dark component for each pair of adjacent cumulative contribution ratios. Calculating at least one of the cumulative values.

ここで、形状が規格化された複数のサンプル顔画像は、複数のサンプル顔画像から得られる平均的な顔形状(毛髪の生え際、輪郭、眉、目、鼻等の形状)と、複数のサンプル顔の各々に固有のテクスチャ情報とからそれぞれ形成される。また、形状が規格化された分析対象顔画像は、上記複数のサンプル顔画像から得られる平均的な顔形状と、被験者の顔に固有のテクスチャ情報とから形成される。規格化には、例えば、AFIM(Automatic Facial Image Manipulation system)(下記参考文献1参照)等のモーフィング処理が利用される。
参考文献1:寺田卓馬他、"顔画像の自動モーフィングシステムAFIMによる顔テクスチャの統計解析"、日本顔学会誌、2009年10月5日
Here, a plurality of sample face images whose shapes are standardized include an average face shape (shape of hairline, contour, eyebrows, eyes, nose, etc.) obtained from a plurality of sample face images, and a plurality of samples. It is formed from texture information unique to each face. The analysis target face image whose shape is standardized is formed from an average face shape obtained from the plurality of sample face images and texture information unique to the face of the subject. For normalization, for example, morphing processing such as AFIM (Automatic Facial Image Manipulation system) (see Reference 1 below) is used.
Reference 1: Takuda Terada et al., “Statistical analysis of facial textures using the automatic facial morphing system AFIM”, Journal of the Japanese Facial Society, October 5, 2009

形状が規格化された複数のサンプル顔画像の主成分分析(PCA(Principal Component Analysis))によれば、サンプル数に対応するN次元固有ベクトル(Nは顔画像の画素数である)と各N次元固有ベクトルの重み係数とが得られる。N次元固有ベクトルが複数の基底関数と表記され、各重み係数が基底係数と表記される。そして、形状が規格化された分析対象顔画像の主成分分析によれば、形状が規格化された分析対象顔画像が、形状が規格化された複数のサンプル顔画像の平均顔画像情報と当該複数の基底関数との線形和に分解され、その分析対象顔画像に対応する各基底係数がそれぞれ算出される。   According to principal component analysis (PCA (Principal Component Analysis)) of a plurality of sample face images whose shapes are standardized, an N-dimensional eigenvector corresponding to the number of samples (N is the number of pixels of the face image) and each N-dimension The eigenvector weight coefficient is obtained. An N-dimensional eigenvector is expressed as a plurality of basis functions, and each weight coefficient is expressed as a basis coefficient. Then, according to the principal component analysis of the analysis target face image whose shape is normalized, the analysis target face image whose shape is normalized includes the average face image information of a plurality of sample face images whose shapes are normalized It is decomposed into a linear sum with a plurality of basis functions, and each basis coefficient corresponding to the face image to be analyzed is calculated.

上記式は、主成分分析法を示している。xは入力画像、mは平均顔、u,u, ... uは、基底関数(固有ベクトル)であり固有値の大きい順に並ぶ。bは基底係数、v,v,vはそれぞれ画素R,G,Bの値を示す。xが、形状が規格化された複数のサンプル顔画像及び形状が規格化された分析対象顔画像に相当し、mが上記平均顔画像情報に相当する。 The above equation shows the principal component analysis method. x is an input image, m is an average face, u 1 , u 2 ,. . . u n is a basis function (eigenvector) arranged in descending order of eigenvalues. b represents a base coefficient, and v R , v G , and v B represent the values of the pixels R, G, and B, respectively. x corresponds to a plurality of sample face images with normalized shapes and analysis target face images with normalized shapes, and m corresponds to the average face image information.

主成分分析により得られる線形和では、各基底関数uは、各基底関数に対応して算出される固有値の大きい順に並ぶ。そして、図1に示されるように、低次側の基底は、分析対象顔を遠方視した場合のような大域的なテクスチャの傾向を表し、高次側の基底は、分析対象顔を近接視した場合のような局所的なテクスチャの傾向を表す。なお、各基底関数により表わされる顔画像は固有顔画像とも表記される。図1は、主成分分析により得られる、平均顔画像と各固有顔画像との線形和を概念的に示す図である。なお、以降の顔画像を含む各図面では、個人情報保護の観点から目周辺が黒く塗りつぶされている。これは、本実施形態の処理に関連するものではない。 In the linear sum obtained by the principal component analysis, each basis function u i is arranged in descending order of the eigenvalue calculated corresponding to each basis function. As shown in FIG. 1, the lower-order base represents a global texture tendency as when the analysis target face is viewed from a distance, and the higher-order base displays the analysis target face in near vision. It represents the tendency of local texture as if Note that the face image represented by each basis function is also referred to as a unique face image. FIG. 1 is a diagram conceptually showing a linear sum of an average face image and each unique face image obtained by principal component analysis. In each drawing including the face image thereafter, the periphery of the eyes is painted black from the viewpoint of personal information protection. This is not related to the processing of this embodiment.

本実施形態では、主成分分析により得られる情報を用いて、分析対象顔画像に関し、所定精度の各累積寄与率に対応する各再現顔画像がそれぞれ生成される。所定精度とは、再現顔画像を生成するための累積寄与率の刻み幅を意味する。   In the present embodiment, using the information obtained by principal component analysis, each reproduced face image corresponding to each cumulative contribution rate with a predetermined accuracy is generated for the analysis target face image. The predetermined accuracy means a step size of the cumulative contribution rate for generating the reproduced face image.

主成分分析により得られる各基底関数は、対応する固有値が大きい程、それが表現する情報量が大きくなる。即ち、低次の基底ほど、入力画像に対する寄与率が大きくなる。一方で、同じ基底番号の基底であっても、入力画像となる分析対象顔画像のテクスチャに応じて、その基底が示す寄与率が異なる場合がある。従って、上記各再現顔画像を各基底番号に対応して生成するようにした場合、各再現顔画像の再現度合いが、入力画像となる分析対象顔画像毎に異なる可能性がある。   Each basis function obtained by principal component analysis has a larger amount of information expressed as the corresponding eigenvalue increases. That is, the lower the basis, the greater the contribution rate to the input image. On the other hand, even if the bases have the same base number, the contribution ratios indicated by the bases may differ depending on the texture of the analysis target face image serving as the input image. Therefore, when each reproduced face image is generated corresponding to each base number, the degree of reproduction of each reproduced face image may be different for each analysis target face image serving as an input image.

そこで、本実施形態では、分析対象顔画像毎に統一される指標として、上述のような累積寄与率(ACR(Accumulated Cover Rate))が用いられる。累積寄与率は、各基底関数に対応する各固有値を用いて得ることができ、平均顔画像から或る基底までの線形和で得られる再現顔画像の、入力顔画像に対する再現度合を示す。即ち、本実施形態では、各再現顔画像は、平均顔画像から、或る累積寄与率を示す基底までの線形和によりそれぞれ生成される。   Therefore, in the present embodiment, the cumulative contribution rate (ACR (Accumulated Cover Rate)) as described above is used as an index unified for each face image to be analyzed. The cumulative contribution rate can be obtained by using each eigenvalue corresponding to each basis function, and indicates the degree of reproduction of the reproduced face image obtained by the linear sum from the average face image to a certain basis with respect to the input face image. That is, in the present embodiment, each reproduced face image is generated by a linear sum from an average face image to a base indicating a certain cumulative contribution rate.

図2は、各再現顔画像の生成例を概念的に示す図である。図2の例では、累積寄与率の所定精度(刻み幅)は3%に設定されている。累積寄与率50%は平均顔画像のみによって達成され、累積寄与率100%は全基底の線形和で達成される。   FIG. 2 is a diagram conceptually illustrating an example of generating each reproduced face image. In the example of FIG. 2, the predetermined accuracy (step size) of the cumulative contribution rate is set to 3%. A cumulative contribution of 50% is achieved with only the average face image, and a cumulative contribution of 100% is achieved with a linear sum of all bases.

本実施形態では、このように生成される各再現顔画像を用いて、隣接する累積寄与率の各ペアに関し、明差分画像及び暗差分画像の少なくとも一方(明差分画像のみ、暗差分画像のみ、それら両方のいずれか1つ)がそれぞれ生成される。上述のように、各基底関数は、基底番号の小さい順に、大域的なテクスチャの傾向から局所的なテクスチャの傾向をそれぞれ表す。よって、本実施形態によれば、隣接する2つの累積寄与率に対応する2つの再現顔画像間の差分を取ることで、顔全体の質感に与える影響の異なる詳細レベル(大域傾向から局所傾向)毎のテクスチャ情報を区別して取得することができる。大雑把に言えば、詳細レベルが低い大域傾向を形成するテクスチャ情報と、詳細レベルが高い局所傾向を形成するテクスチャ情報とを区別して取得することができる。   In this embodiment, using each reproduced face image generated in this manner, at least one of a bright difference image and a dark difference image (only a bright difference image, only a dark difference image, Any one of them) is generated respectively. As described above, each basis function represents a local texture tendency from a global texture tendency in ascending order of basis numbers. Therefore, according to the present embodiment, the difference between two reproduced face images corresponding to two adjacent cumulative contribution ratios is taken to obtain a detailed level with different influences on the texture of the entire face (from global tendency to local tendency). Each texture information can be obtained separately. Roughly speaking, it is possible to distinguish and acquire texture information that forms a global tendency with a low level of detail and texture information that forms a local tendency with a high level of detail.

また、明差分画像及び暗差分画像は、再現顔画像間の明暗情報の差分により算出されるため、本実施形態によれば、人間の視覚に伴う心理作用としての見え方に影響を与え易い明暗の特徴情報を得ることができる。即ち、当該明暗情報の差分の算出により、平均より明るく視認される成分としてテカリ成分が抽出され、平均より暗く視認される成分として色ムラ成分及び凹凸ムラ成分が抽出される。つまり、明差分画像によれば、テカリ成分を抽出することができ、暗差分画像によれば、色ムラ成分及び凹凸ムラ成分を抽出することができる。当該明暗情報として、例えば、明度情報、輝度情報、RGBのG値などが用いられ得るが、輝度情報が用いられることが望ましい。色ムラ成分とは、毛穴のよごれ、シミ、そばかす等であり、凹凸ムラ成分とは、毛穴やしわ等である。   Further, since the light difference image and the dark difference image are calculated based on the difference in the light / dark information between the reproduced face images, according to the present embodiment, the light / darkness that easily affects the appearance as a psychological action associated with human vision. Characteristic information can be obtained. That is, by calculating the difference between the light and dark information, a shine component is extracted as a component that is viewed brighter than the average, and a color unevenness component and an uneven unevenness component are extracted as components that are viewed darker than the average. That is, according to the bright difference image, the shine component can be extracted, and according to the dark difference image, the color unevenness component and the uneven unevenness component can be extracted. As the brightness information, for example, brightness information, brightness information, RGB G value and the like can be used, but it is desirable to use brightness information. Color unevenness components are dirt, stains, freckles, and the like of pores, and uneven unevenness components are pores and wrinkles.

図3は、明差分画像及び暗差分画像の生成例を概念的に示す図である。図3の例では、累積寄与率の所定精度は3%に設定されており、3%の刻み幅で隣接する2つの累積寄与率に対応する2つの再現顔画像間の差分から、明差分画像及び暗差分画像のペアがそれぞれ生成されている。   FIG. 3 is a diagram conceptually illustrating an example of generating a bright difference image and a dark difference image. In the example of FIG. 3, the predetermined accuracy of the cumulative contribution rate is set to 3%, and a bright difference image is obtained from a difference between two reproduced face images corresponding to two cumulative contribution rates adjacent to each other with a step size of 3%. And a pair of dark difference images are generated.

本実施形態では、上述のように取得されたテクスチャ情報を数値化するために、明差分画像及び暗差分画像について明成分代表値及び暗成分代表値の少なくとも一方が算出され、更に、これらの累積値として、隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方がそれぞれ算出される。上述のように明差分画像にはテカリ成分が含まれ、暗差分画像には色ムラ成分及び凹凸ムラ成分が含まれるため、明差分画像から得られる明成分代表値は、テカリ成分の強さを示し、暗差分画像から得られる暗成分代表値は、色ムラ成分及び凹凸ムラ成分の強さを示す。ここでの代表値とは、例えば、ヒストグラムの平均値、分散値、標準偏差等の統計値、及び、ヒストグラムの面積である。この代表値については、明成分及び暗成分の大きさを何らかの形で示すものであれば、その具体的形態は制限されない。   In the present embodiment, in order to digitize the texture information acquired as described above, at least one of the bright component representative value and the dark component representative value is calculated for the bright difference image and the dark difference image, and further, the accumulation of these values is calculated. As a value, at least one of a bright component cumulative value and a dark component cumulative value is calculated for each pair of adjacent cumulative contribution rates. As described above, the bright difference image includes the shine component, and the dark difference image includes the color unevenness component and the uneven unevenness component. Therefore, the bright component representative value obtained from the bright difference image indicates the strength of the shine component. The dark component representative value obtained from the dark difference image indicates the strength of the color unevenness component and the unevenness unevenness component. The representative values here are, for example, histogram average values, variance values, standard deviations and other statistical values, and histogram areas. With respect to the representative value, the specific form is not limited as long as the magnitude of the bright component and the dark component is indicated in some form.

図4は、明成分累積値の算出例を概念的に示す図である。図4のグラフでは、隣接する累積寄与率の各ペアについて算出される各明成分累積値は、そのペア内の高い側の累積寄与率上にそれぞれプロットされている。本実施形態によれば、隣接する累積寄与率の各ペアについて算出される明成分累積値及び暗成分累積値の少なくとも一方により、図4の例のようなグラフを生成することができる。なお、暗成分累積値についても、図4と同様に算出される。   FIG. 4 is a diagram conceptually illustrating a calculation example of the bright component cumulative value. In the graph of FIG. 4, each light component accumulated value calculated for each pair of adjacent accumulated contribution rates is plotted on the higher accumulated contribution rate in the pair. According to the present embodiment, a graph like the example of FIG. 4 can be generated from at least one of the bright component cumulative value and the dark component cumulative value calculated for each pair of adjacent cumulative contribution rates. Note that the dark component cumulative value is also calculated in the same manner as in FIG.

このように、本実施形態によれば、顔のテクスチャ特性及び人間の視覚に伴う心理作用が再現された画像処理により、分析対象顔画像の顔全体の質感に与える影響の異なる顔のテクスチャ情報の詳細レベル毎に、テカリ成分に関する指標(明成分代表値)、及び、色ムラ成分及び凹凸ムラ成分に関する指標(暗成分代表値)の少なくとも一方を正確に取得することができる。更に、本実施形態によれば、顔全体の質感に与える影響の異なる詳細レベルの昇順に、テカリ成分に関する指標、及び、色ムラ成分及び凹凸ムラ成分に関する指標の少なくとも一方の各累積値をそれぞれ算出することができる。   As described above, according to the present embodiment, the facial texture information having different influences on the texture of the entire face of the analysis target facial image is obtained by the image processing in which the facial texture characteristics and the psychological effects associated with human vision are reproduced. For each detail level, at least one of an index relating to the shine component (representative value of the bright component) and an index relating to the color unevenness component and the unevenness unevenness component (representative value of the dark component) can be accurately acquired. Furthermore, according to the present embodiment, the cumulative values of at least one of the index relating to the shine component and the index relating to the color unevenness component and the uneven unevenness component are calculated in ascending order of the detail levels having different effects on the texture of the entire face can do.

例えば、図4によれば、横軸が上記詳細レベルに相当し、縦軸がその詳細レベルにおけるテカリ成分に関する指標に相当するため、明成分累積値の軌跡の形状から、分析対象顔に関し、その顔の質感に影響を及ぼすテカリ状態を評価することができる。同様に、暗成分累積値の軌跡の形状から、分析対象顔に関し色ムラ状態及び凹凸ムラ状態を評価することができる。   For example, according to FIG. 4, since the horizontal axis corresponds to the above detailed level and the vertical axis corresponds to the index relating to the shine component at the detailed level, The shine condition that affects the texture of the face can be evaluated. Similarly, it is possible to evaluate the color unevenness state and the uneven unevenness state with respect to the face to be analyzed from the shape of the dark component cumulative value locus.

このように、本実施形態によれば、隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方から選ばれる累積値により、分析対象顔画像に写る顔全体の質感を高精度に定量化することができる。明成分累積値と暗成分累積値との両方を用いれば、テカリ成分に関する指標と、色ムラ成分及び凹凸ムラ成分に関する指標との両方を得ることができるため、いずれか一方を使う場合に比べ、より高精度に顔全体の質感を定量化することができる。ここで、顔全体の質感とは、被験者の顔全体を或る人が見た場合に、美肌感、透明感、光沢感、暗さ感、凹凸感から選ばれる顔全体の質感であり、好ましくは、透明感である。被験者の顔の形状以外のテクスチャからその人が受けるであろう感じである。   As described above, according to the present embodiment, the texture of the entire face in the face image to be analyzed is determined by the cumulative value selected from at least one of the bright component cumulative value and the dark component cumulative value for each pair of adjacent cumulative contribution rates. Can be quantified with high accuracy. By using both the light component cumulative value and the dark component cumulative value, it is possible to obtain both an index relating to the shine component and an index relating to the color unevenness component and the uneven unevenness component. The texture of the entire face can be quantified with higher accuracy. Here, the texture of the entire face is the texture of the entire face selected from a feeling of skin, transparency, gloss, darkness, and unevenness when a certain person views the entire face of the subject. Is transparent. It is a feeling that the person will receive from textures other than the shape of the subject's face.

以下、上述の実施形態について更に詳細を説明する。
[第1実施形態]
Hereinafter, the details of the above-described embodiment will be described.
[First Embodiment]

〔装置構成〕
図5は、第1実施形態における顔画像分析装置(以降、分析装置とも表記する)10のハードウェア構成例を概念的に示す図である。第1実施形態における分析装置10は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。
〔Device configuration〕
FIG. 5 is a diagram conceptually illustrating a hardware configuration example of the face image analysis apparatus (hereinafter also referred to as an analysis apparatus) 10 according to the first embodiment. The analysis apparatus 10 according to the first embodiment is a so-called computer, and includes, for example, a CPU (Central Processing Unit) 2, a memory 3, an input / output interface (I / F) 4, and the like that are connected to each other via a bus 5. The memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.

入出力I/F4は、入力部7、出力部9、ネットワーク(図示せず)を介して他のコンピュータと通信を行う通信装置等と接続される。入力部7は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。出力部9は、ディスプレイ装置やプリンタ等のようなユーザに情報を提供する装置である。なお、分析装置10のハードウェア構成は制限されない。   The input / output I / F 4 is connected to a communication device or the like that communicates with other computers via the input unit 7, the output unit 9, and a network (not shown). The input unit 7 is a device that receives input of a user operation such as a keyboard and a mouse. The output unit 9 is a device that provides information to a user, such as a display device or a printer. Note that the hardware configuration of the analyzer 10 is not limited.

図6は、第1実施形態における分析装置10の処理構成例を概念的に示す図である。第1実施形態における分析装置10は、画像取得部11、規格化処理部12、主成分分析部13、サンプルデータ格納部14、再構成部15、差分算出部16、代表値算出部17、累積値算出部18、情報生成部19、基準データ格納部20等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。   FIG. 6 is a diagram conceptually illustrating a processing configuration example of the analysis apparatus 10 in the first embodiment. The analysis apparatus 10 according to the first embodiment includes an image acquisition unit 11, a normalization processing unit 12, a principal component analysis unit 13, a sample data storage unit 14, a reconstruction unit 15, a difference calculation unit 16, a representative value calculation unit 17, and a cumulative value. A value calculation unit 18, an information generation unit 19, a reference data storage unit 20, and the like are included. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 4 and stored in the memory 3. Good.

画像取得部11は、被験者の顔が写る分析対象顔画像の画像データを取得する。この画像データは、可搬型記録媒体、他のコンピュータ等から入出力I/F4を経由して取得される。本実施形態では、当該画像データのデータ形式は制限されない。よって、当該画像データは、例えば、JPEG(Joint Photographic Experts Group)形式、GIF(Graphic Interchange Format)形式等のファイルとして取得される。以降、顔画像の画像データを単に顔画像とも表記する。   The image acquisition unit 11 acquires image data of an analysis target face image in which the face of the subject is captured. This image data is acquired from a portable recording medium, another computer or the like via the input / output I / F 4. In the present embodiment, the data format of the image data is not limited. Therefore, the image data is acquired as a file in a JPEG (Joint Photographic Experts Group) format, a GIF (Graphic Interchange Format) format, or the like. Hereinafter, the image data of the face image is also simply referred to as a face image.

画像取得部11により取得される顔画像には、被験者の顔全体が写っていればよく、背景や頭部以外の部位が写っていてもよい。また、被験者の顔は素顔でもよく、化粧を施した顔(化粧顔)でもよい。また、当該顔画像は、明暗情報を保持していれば、カラー画像であってもよいし、グレースケール画像であってもよい。   The face image acquired by the image acquisition unit 11 only needs to include the entire face of the subject and may include parts other than the background and the head. The subject's face may be a natural face or a face with makeup (makeup face). Further, the face image may be a color image or a gray scale image as long as it holds brightness / darkness information.

規格化処理部12は、画像取得部11により取得された分析対象顔画像に正規化等の規格化処理を施して、被験者の顔の形状的な特徴を捨象した規格化画像を生成する。即ち、規格化処理部12は、上述したように、形状が規格化された分析対象顔画像を生成する。規格化処理部12以降で扱われる、形状が規格化された分析対象顔画像は、単に、分析対象顔画像と表記される。   The normalization processing unit 12 performs normalization processing such as normalization on the analysis target face image acquired by the image acquisition unit 11 to generate a standardized image in which the shape characteristics of the subject's face are discarded. That is, the normalization processing unit 12 generates an analysis target face image whose shape is standardized as described above. An analysis target face image whose shape is standardized and handled by the normalization processing unit 12 and later is simply referred to as an analysis target face image.

サンプルデータ格納部14は、上述の実施形態のサンプル取得部により取得される平均顔画像情報及び複数の基底関数を格納する。平均顔画像情報及び基底関数については上述した通りである。   The sample data storage unit 14 stores average face image information and a plurality of basis functions acquired by the sample acquisition unit of the above-described embodiment. The average face image information and the basis function are as described above.

主成分分析部13は、サンプルデータ格納部14に格納される平均顔画像情報及び複数の基底関数を用いて、規格化処理部12により処理された分析対象顔画像を主成分分析することにより、分析対象顔画像のための各基底関数の基底係数をそれぞれ算出する。主成分分析部13は、上述の実施形態の主成分分析部に相当するため、詳細は上述の通りである。   The principal component analysis unit 13 performs principal component analysis on the analysis target face image processed by the normalization processing unit 12 using the average face image information stored in the sample data storage unit 14 and the plurality of basis functions. A basis coefficient of each basis function for the analysis target face image is calculated. Since the principal component analysis unit 13 corresponds to the principal component analysis unit of the above-described embodiment, the details are as described above.

再構成部15は、主成分分析部13により算出される各基底係数、並びに、サンプルデータ格納部14に格納される複数の基底関数及び平均顔画像情報に基づいて、50%より大きい所定下限値から100%未満の所定上限値までの範囲における所定精度の各累積寄与率に対応する各再現顔画像をそれぞれ生成する。上記所定下限値及び上記所定上限値並びに上記所定精度は、次のような観点で予め決定されメモリ3に格納される。   Based on each basis coefficient calculated by the principal component analysis unit 13 and a plurality of basis functions and average face image information stored in the sample data storage unit 14, the reconstruction unit 15 has a predetermined lower limit value greater than 50%. Each reproduction face image corresponding to each cumulative contribution rate with a predetermined accuracy in a range from 1 to a predetermined upper limit value less than 100% is generated. The predetermined lower limit value, the predetermined upper limit value, and the predetermined accuracy are determined in advance and stored in the memory 3 from the following viewpoints.

本発明者らは、50%以上100%以下という累積寄与率の全範囲内に、顔全体の質感に与える影響が特に大きいテクスチャ情報を表す質感寄与範囲とそれ以外のテクスチャ情報を表す範囲とが存在し、その質感寄与範囲が50%以上上記所定下限値未満及び上記所定上限値以上100%以下を含まない範囲であることを明らかにした。これは、顔の全体的印象を決め得るためには、基底次の低い項、即ち、大域的なテクスチャの傾向に着目するという関連技術の常識とは異なる新たな技術的発想であり、本発明者らにより、顔全体の質感に寄与するテクスチャ情報が、顔の全体的印象を決め得る累積寄与率の範囲とは必ずしも一致しない累積寄与率の範囲に存在することが見出された。本実施形態では、上記所定下限値及び上記所定上限値は、顔全体の質感に与える影響が特に大きいテクスチャ情報を表す質感寄与範囲を示すように予め設定される。なお、質感寄与範囲を設定するための上記所定下限値及び上記所定上限値の具体的数値についての考察は実施例の項で説明する。   The inventors of the present invention have a texture contribution range that represents texture information that has a particularly large influence on the texture of the entire face and a range that represents other texture information within the entire range of the cumulative contribution ratio of 50% to 100%. It has been clarified that the texture contribution range is 50% or more and less than the predetermined lower limit value and does not include the predetermined upper limit value or more and 100% or less. This is a new technical idea that is different from the common sense of the related art of focusing on low-order terms, that is, global texture trends, in order to be able to determine the overall impression of the face. They have found that texture information that contributes to the texture of the entire face exists in a range of cumulative contributions that does not necessarily match the range of cumulative contributions that can determine the overall impression of the face. In the present embodiment, the predetermined lower limit value and the predetermined upper limit value are set in advance so as to indicate a texture contribution range representing texture information that has a particularly large influence on the texture of the entire face. In addition, the consideration about the specific numerical value of the said predetermined | prescribed lower limit value and the said predetermined | prescribed upper limit value for setting a texture contribution range is demonstrated in the item of an Example.

一方、累積寄与率に関する上記所定精度(刻み幅)については、細か過ぎると、隣接する累積寄与率のペア毎の明暗情報の差が生じなくなり、明差分画像及び暗差分画像から得られるべきテクスチャ情報を取得できなくなる場合がある。一方で、累積寄与率の当該所定精度が粗すぎると、隣接する累積寄与率の各再現顔画像間において、明暗情報の平均値の差が大きくなってしまうため、明差分画像及び暗差分画像に、その明暗情報の平均値のずれの情報が含まれてしまい、取得したいテクスチャ情報を正確に取得できなくなる場合がある。そこで、当該所定精度は、サンプルデータ格納部14に格納される複数の基底関数を得るためのサンプル顔画像の質及びそのサンプル数に応じて、隣接する累積寄与率のペア毎の明暗情報の差が適度に生じ、隣接する累積寄与率の各再現顔画像間の明暗情報の平均値の差が適度に一致するような値に予め設定され、メモリ3に格納される。この累積寄与率に関する所定精度の具体的数値についての考察も実施例の項において説明する。   On the other hand, if the predetermined accuracy (step size) related to the cumulative contribution rate is too fine, there is no difference in light / dark information for each pair of adjacent cumulative contribution rates, and texture information to be obtained from the light difference image and the dark difference image May not be available. On the other hand, if the predetermined accuracy of the cumulative contribution rate is too coarse, the difference in the average value of the light / dark information between the adjacent reproduced face images of the cumulative contribution rate becomes large. In some cases, information on the deviation of the average value of the brightness information is included, and the texture information desired to be acquired cannot be acquired accurately. Therefore, the predetermined accuracy is the difference in the brightness information for each pair of adjacent cumulative contribution ratios according to the quality of the sample face image for obtaining a plurality of basis functions stored in the sample data storage unit 14 and the number of samples. Is set in advance to a value that appropriately matches the difference between the average values of the light and dark information between the reproduced face images of adjacent cumulative contribution ratios, and is stored in the memory 3. A discussion of specific numerical values with a predetermined accuracy regarding the cumulative contribution rate will also be described in the section of the embodiment.

差分算出部16は、隣接する累積寄与率のペアに関し再構成部15により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出し、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像を、当該隣接する累積寄与率の各ペアについてそれぞれ生成する。   The difference calculation unit 16 calculates a difference in light and dark information between the low-order side reproduction face image and the high-order side reproduction face image generated by the reconstruction unit 15 with respect to adjacent cumulative contribution rate pairs. A bright difference image from which darker components are removed than the reproduced face image and a dark difference image from which brighter components are removed from the lower-order reproduced face image are generated for each pair of adjacent cumulative contribution rates.

代表値算出部17は、差分算出部16により生成された明差分画像及び暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値を、上記隣接する累積寄与率の各ペアについてそれぞれ算出する。   The representative value calculation unit 17 obtains a bright component representative value indicating the intensity of the bright component and a dark component representative value indicating the intensity of the dark component from each color information in the bright difference image and the dark difference image generated by the difference calculation unit 16. , Each pair of adjacent cumulative contribution rates is calculated.

累積値算出部18は、代表値算出部17により算出された明成分代表値及び暗成分代表値に基づいて、当該隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値を累積寄与率の昇順にそれぞれ累積し、当該隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値をそれぞれ算出する。ここで算出される明成分累積値及び暗成分累積値は、上記所定下限値から上記所定上限値までの累積寄与率の範囲内の累積値である。   Based on the light component representative value and the dark component representative value calculated by the representative value calculation unit 17, the cumulative value calculation unit 18 accumulates the light component representative value and the dark component representative value for each pair of adjacent cumulative contribution ratios. Accumulated in ascending order of contribution rate, and the light component cumulative value and dark component cumulative value are calculated for each pair of adjacent cumulative contribution rates. The bright component cumulative value and dark component cumulative value calculated here are cumulative values within the range of the cumulative contribution rate from the predetermined lower limit value to the predetermined upper limit value.

基準データ格納部20は、分析対象顔画像と比較するための基準顔画像に対応する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の群を格納する。基準データ格納部20に格納される当該基準顔画像に対応する明成分累積値及び暗成分累積値の群は、可搬型記録媒体、他のコンピュータ等から入出力I/F4を経由して取得されてもよいし、分析対象顔画像の代わりに基準顔画像が上述の各処理部で処理されることにより取得されてもよい。   The reference data storage unit 20 stores a group of bright component cumulative values and dark component cumulative values for each pair of adjacent cumulative contribution rates corresponding to the reference face image to be compared with the analysis target face image. The group of the light component accumulated value and the dark component accumulated value corresponding to the reference face image stored in the reference data storage unit 20 is acquired from the portable recording medium, another computer, or the like via the input / output I / F 4. Alternatively, the reference face image instead of the analysis target face image may be acquired by being processed by the above-described processing units.

基準顔画像には、顔の質感に関する比較観点に応じた顔の全体が写っていればよく、例えば、専門評価員等の官能評価により透明感があると判定された顔の全体が写る顔画像が当該基準顔画像として選択される。また、当該基準顔画像は、明暗情報を保持していれば、カラー画像であってもよいし、グレースケール画像であってもよい。   The reference face image only needs to include the entire face according to the comparison viewpoint regarding the texture of the face. For example, the face image includes the entire face determined to be transparent by sensory evaluation by a professional evaluator or the like. Is selected as the reference face image. Further, the reference face image may be a color image or a gray scale image as long as it holds light and dark information.

情報生成部19は、累積値算出部18により算出された隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値を用いて、次のような明成分グラフ及び暗成分グラフを形成するためのデータを生成する。明成分グラフでは、累積寄与率を示す第1軸と明成分累積値を示す第2軸とを含む座標に、累積値算出部18により算出された、当該隣接する累積寄与率の各ペアについての明成分累積値がプロットされる。暗成分グラフでは、累積寄与率を示す第1軸と暗成分累積値を示す第2軸とを含む座標に、累積値算出部18により算出された、当該隣接する累積寄与率の各ペアについての暗成分累積値がプロットされる。当該グラフを形成するためのデータとは、当該グラフを出力部9に出力するためのデータであり、画面表示用データであってもよいし、印刷用データであってもよいし、画面表示用データ又は印刷用データを持つデータファイルであってもよい。   The information generation unit 19 forms the following bright component graph and dark component graph using the bright component cumulative value and the dark component cumulative value for each pair of adjacent cumulative contribution ratios calculated by the cumulative value calculation unit 18. Data to generate. In the bright component graph, the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the bright component cumulative value are calculated for each pair of the adjacent cumulative contribution rates calculated by the cumulative value calculation unit 18. The light component cumulative value is plotted. In the dark component graph, the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the dark component cumulative value are calculated for each pair of adjacent cumulative contribution rates calculated by the cumulative value calculation unit 18. The dark component cumulative value is plotted. The data for forming the graph is data for outputting the graph to the output unit 9 and may be screen display data, print data, or screen display data. It may be a data file having data or print data.

図7Aは、分析対象顔画像に関する明成分グラフの例を示す図である。図7Bは、分析対象顔画像に関する暗成分グラフの例を示す図である。図7A及び図7Bの例では、上記所定下限値及び上記所定上限値で決められる累積対象とする累積寄与率の範囲は、68%から98%に設定されている。また、図7A及び図7Bの例では、明成分グラフ及び暗成分グラフの基となる明成分代表値及び暗成分代表値に分散値が利用されている。また、図7A及び図7Bに示されるグラフでは、各明成分累積値及び各暗成分累積値は、当該隣接する累積寄与率のペア内の高い側の累積寄与率上にそれぞれプロットされている。   FIG. 7A is a diagram illustrating an example of a bright component graph related to an analysis target face image. FIG. 7B is a diagram illustrating an example of a dark component graph relating to an analysis target face image. In the example of FIGS. 7A and 7B, the range of the cumulative contribution rate to be accumulated determined by the predetermined lower limit value and the predetermined upper limit value is set to 68% to 98%. In the example of FIGS. 7A and 7B, the dispersion value is used for the light component representative value and the dark component representative value that are the basis of the light component graph and the dark component graph. Further, in the graphs shown in FIGS. 7A and 7B, each bright component cumulative value and each dark component cumulative value is plotted on the higher cumulative contribution rate in the adjacent cumulative contribution rate pair.

更に、情報生成部19は、基準顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の群を、基準データ格納部20から抽出し、抽出された明成分累積値及び暗成分累積値の群が分析対象顔画像のそれらに重畳されるように、上記明成分グラフ及び上記暗成分グラフを形成するためのデータを生成するようにしてもよい。この場合、情報生成部19は、基準取得手段に相当する。   Further, the information generation unit 19 extracts a group of bright component cumulative values and dark component cumulative values for each pair of adjacent cumulative contribution ratios related to the reference face image from the reference data storage unit 20, and extracts the extracted light components. Data for forming the bright component graph and the dark component graph may be generated so that a group of component cumulative values and dark component cumulative values is superimposed on those of the analysis target face image. In this case, the information generation unit 19 corresponds to a reference acquisition unit.

図8Aは、基準顔画像及び分析対象顔画像に関する明成分グラフの例を示す図である。図8Bは、基準顔画像及び分析対象顔画像に関する暗成分グラフの例を示す図である。図8A及び図8Bの例においても、上記所定下限値及び上記所定上限値で決められる累積対象とする累積寄与率の範囲は、68%から98%に設定されている。また、図8A及び図8Bの例では、明成分グラフ及び暗成分グラフの基となる明成分代表値及び暗成分代表値に分散値が利用されている。この例における明成分グラフでは、分析対象顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値に、基準顔画像に関するそれが重畳的にプロットされている。同様に、暗成分グラフでは、分析対象顔画像に関する、当該隣接する累積寄与率の各ペアについての暗成分累積値に、基準顔画像に関するそれが重畳的にプロットされている。   FIG. 8A is a diagram illustrating an example of a bright component graph related to the reference face image and the analysis target face image. FIG. 8B is a diagram illustrating an example of a dark component graph regarding the reference face image and the analysis target face image. Also in the examples of FIGS. 8A and 8B, the range of the cumulative contribution rate to be accumulated determined by the predetermined lower limit value and the predetermined upper limit value is set to 68% to 98%. In the example of FIGS. 8A and 8B, the dispersion value is used for the light component representative value and the dark component representative value that are the basis of the light component graph and the dark component graph. In the light component graph in this example, the light component cumulative value for each pair of adjacent cumulative contribution ratios related to the analysis target face image is superimposed on the reference face image. Similarly, in the dark component graph, for the analysis target face image, that for the reference face image is superimposed on the dark component cumulative value for each pair of adjacent cumulative contribution ratios.

情報生成部19は、上述の4タイプの全グラフを形成するためのデータを生成してもよいし、それら全グラフの中のいずれか1つ、又は、いずれか複数のグラフを形成するためのデータを生成してもよい。また、図7A、図7B、図8A及び図8Bの各例では、上記第1軸が横軸に、上記第2軸が縦軸に設定されているが、本実施形態は、明成分グラフ及び暗成分グラフをこのような例に限定しない。   The information generation unit 19 may generate data for forming the above-described four types of all graphs, or for forming any one or any of the plurality of graphs. Data may be generated. 7A, 7B, 8A, and 8B, the first axis is set on the horizontal axis and the second axis is set on the vertical axis. The dark component graph is not limited to such an example.

〔動作例〕
以下、第1実施形態における顔画像分析方法について図9を用いて説明する。図9は、第1実施形態における分析装置10の動作例を示すフローチャートである。図9の例では、基準顔画像及び分析対象顔画像に関するデータが重畳されてなる明成分グラフ及び暗成分グラフ(図8A及び図8Bの例参照)を形成するためのデータが生成される例が挙げられている。また、このとき既に、分析装置10が、分析対象顔画像と比較するための基準顔画像に対応する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の群を保持しているものと仮定する。
[Operation example]
Hereinafter, the face image analysis method according to the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an operation example of the analyzer 10 according to the first embodiment. In the example of FIG. 9, an example of generating data for forming a light component graph and a dark component graph (see the examples of FIGS. 8A and 8B) in which data related to the reference face image and the analysis target face image are superimposed is generated. Are listed. Also, at this time, the analysis apparatus 10 already has a group of bright component cumulative values and dark component cumulative values for each pair of adjacent cumulative contribution ratios corresponding to the reference face image for comparison with the analysis target face image. Assume that it is retained.

分析装置10は、被験者の顔が写る分析対象顔画像を取得する(S91)。
続いて、分析装置10は、その分析対象顔画像に正規化等の規格化処理を施す(S92)。これにより、形状が規格化された分析対象顔画像が生成される。以降の各処理では、この形状が規格化された分析対象顔画像が扱われ、以降、形状が規格化された分析対象顔画像を分析対象顔画像と簡略化して表記する。
The analysis apparatus 10 acquires an analysis target face image in which the face of the subject is captured (S91).
Subsequently, the analysis apparatus 10 performs normalization processing such as normalization on the analysis target face image (S92). As a result, an analysis target face image whose shape is standardized is generated. In the subsequent processes, the analysis target face image whose shape is standardized is handled, and thereafter, the analysis target face image whose shape is standardized is simplified and described as the analysis target face image.

分析装置10は、工程(S92)で生成された分析対象顔画像に対して主成分分析を実行する(S93)。この主成分分析では、分析装置10は、形状が規格化された複数のサンプル顔画像の主成分分析により予め取得されていた複数の基底関数を用い、分析対象顔画像のための各基底関数の基底係数をそれぞれ算出する。即ち、形状が規格化された分析対象顔画像が、形状が規格化された複数のサンプル顔画像の平均顔画像情報と当該複数の基底関数との線形和に分解され、その分析対象顔画像に対応する各基底係数がそれぞれ算出される。   The analysis apparatus 10 performs principal component analysis on the analysis target face image generated in the step (S92) (S93). In this principal component analysis, the analysis apparatus 10 uses a plurality of basis functions acquired in advance by principal component analysis of a plurality of sample face images whose shapes are normalized, and uses each basis function for the analysis target face image. Each basis coefficient is calculated. That is, the analysis target face image whose shape is normalized is decomposed into a linear sum of the average face image information of the plurality of sample face images whose shapes are normalized and the plurality of basis functions, and the analysis target face image is converted into the analysis target face image. Each corresponding basis coefficient is calculated.

続いて、分析装置10は、工程(S93)で算出された各基底係数、並びに、複数のサンプル顔画像の主成分分析により予め算出されていた複数の基底関数及び平均顔画像情報に基づいて、50%より大きい所定下限値から100%未満の所定上限値までの範囲における所定精度の各累積寄与率に対応する各再現顔画像をそれぞれ生成する(S94)。   Subsequently, the analysis apparatus 10 based on each basis coefficient calculated in the step (S93) and a plurality of basis functions and average face image information calculated in advance by principal component analysis of a plurality of sample face images. Reproduced face images corresponding to each cumulative contribution rate with a predetermined accuracy in a range from a predetermined lower limit value greater than 50% to a predetermined upper limit value less than 100% are generated (S94).

分析装置10は、隣接する累積寄与率のペアに関し工程(S94)で生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出する。これにより、分析装置10は、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像を、当該隣接する累積寄与率の各ペアについてそれぞれ生成する(S95)。   The analysis apparatus 10 calculates a difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated in the step (S94) with respect to adjacent cumulative contribution rate pairs. Thereby, the analysis apparatus 10 adjoins the bright difference image from which the darker component than the low-order side reproduction face image is removed, and the dark difference image from which the brighter component than the low-order side reproduction face image is removed. Each pair of cumulative contribution rates is generated (S95).

分析装置10は、工程(S95)で生成された明差分画像及び暗差分画像における各色情報から、明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値を、当該隣接する累積寄与率の各ペアについてそれぞれ算出する(S96)。   The analysis apparatus 10 calculates, from each color information in the bright difference image and the dark difference image generated in the step (S95), a bright component representative value indicating the intensity of the bright component and a dark component representative value indicating the intensity of the dark component. Each pair of adjacent cumulative contribution rates is calculated (S96).

続いて、分析装置10は、工程(S96)で算出された、当該隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値を、累積寄与率の昇順にそれぞれ累積し、当該隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値をそれぞれ算出する(S97)。   Subsequently, the analysis apparatus 10 accumulates the bright component representative value and the dark component representative value for each pair of the adjacent cumulative contribution ratios calculated in the step (S96) in ascending order of the cumulative contribution ratios, and the adjacent The bright component cumulative value and the dark component cumulative value are calculated for each pair of cumulative contribution ratios to be performed (S97).

分析装置10は、基準顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値と、分析対象顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値と、が重畳された明成分グラフ及び暗成分グラフを形成するためのデータを生成する(S98)。以降、このデータに基づいて、図7A、図7B、図8A、図8Bの例のようなグラフが出力される。   The analysis apparatus 10 includes a bright component cumulative value and a dark component cumulative value for each pair of adjacent cumulative contribution ratios related to the reference face image, and a light component for each pair of adjacent cumulative contribution ratios related to the analysis target face image. Data for forming a light component graph and a dark component graph on which the component cumulative value and the dark component cumulative value are superimposed is generated (S98). Thereafter, based on this data, graphs such as the examples of FIGS. 7A, 7B, 8A, and 8B are output.

ここで、基準顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の群は、上述の工程(S91)から工程(S97)が、分析対象顔画像の代わりに基準顔画像に対して実行されることで、取得されるようにしてもよい。   Here, with respect to the reference face image, the group of the bright component cumulative value and the dark component cumulative value for each pair of the adjacent cumulative contribution ratios is determined from the above-described steps (S91) to (S97). Instead, it may be acquired by being executed on the reference face image.

〔第1実施形態の作用及び効果〕
このように、第1実施形態では、所定下限値から所定上限値までの累積寄与率の範囲における、隣接する累積寄与率の各ペアについて、明成分累積値及び暗成分累積値がそれぞれ算出される。隣接する累積寄与率の或るペアに関する明成分累積値は、上述したように、そのペアより低い累積寄与率の中の隣接する累積寄与率の各ペアに対応する2つの再現顔画像間の明成分情報の各差分が当該累積寄与率の昇順に累積された値である。同様に、隣接する累積寄与率の或るペアに関する暗成分累積値は、上述したように、そのペアより低い累積寄与率の中の隣接する累積寄与率の各ペアに対応する2つの再現顔画像間の暗成分情報の各差分が当該累積寄与率の昇順に累積された値である。更に、明成分累積値及び暗成分累積値が算出される累積寄与率の範囲は、顔全体の質感に与える影響が特に大きいテクスチャ情報を表す範囲に設定されている。
[Operation and Effect of First Embodiment]
As described above, in the first embodiment, the light component cumulative value and the dark component cumulative value are calculated for each pair of adjacent cumulative contribution rates in the cumulative contribution rate range from the predetermined lower limit value to the predetermined upper limit value. . As described above, the bright component cumulative value for a certain pair of adjacent cumulative contribution ratios is a light component between two reproduced face images corresponding to each pair of adjacent cumulative contribution ratios among the cumulative contribution ratios lower than that pair. Each difference of component information is a value accumulated in ascending order of the cumulative contribution rate. Similarly, as described above, the dark component cumulative value for a certain pair of adjacent cumulative contribution ratios is two reproduced face images corresponding to each pair of adjacent cumulative contribution ratios among cumulative contribution ratios lower than that pair. Each difference in dark component information is a value accumulated in ascending order of the cumulative contribution rate. Furthermore, the range of the cumulative contribution rate in which the bright component cumulative value and the dark component cumulative value are calculated is set to a range representing texture information that has a particularly large influence on the texture of the entire face.

これにより、明成分累積値は、対応するペアの累積寄与率の再現顔画像に含まれる、顔全体の質感に与える影響の大きいテカリ成分の強さを示し、暗成分累積値は、対応するペアの累積寄与率の再現顔画像に含まれる、顔全体の質感に与える影響の大きい色ムラ成分及び凹凸ムラ成分の強さを示す。第1実施形態では、所定精度の各累積寄与率について、明成分累積値及び暗成分累積値がプロットされた、明成分グラフ及び暗成分グラフを形成するためのデータが生成される。   Thus, the bright component cumulative value indicates the strength of the shine component that is included in the reproduced face image of the cumulative contribution ratio of the corresponding pair and has a large influence on the texture of the entire face, and the dark component cumulative value indicates the corresponding pair The intensity of the color unevenness component and the unevenness unevenness component having a large influence on the texture of the entire face, included in the reproduced face image of the cumulative contribution rate of. In the first embodiment, data for forming a light component graph and a dark component graph, in which a light component cumulative value and a dark component cumulative value are plotted, is generated for each cumulative contribution rate with a predetermined accuracy.

従って、第1実施形態によれば、明成分グラフ及び暗成分グラフにより、顔全体の質感に与える影響の大きい、テカリ成分、色ムラ成分及び凹凸ムラ成分の強さを客観的に定量化することができ、ひいては、被験者の顔全体の質感を高精度に定量化することができる。   Therefore, according to the first embodiment, the light component graph and the dark component graph can objectively quantify the strength of the shine component, the color unevenness component, and the uneven unevenness component that have a large influence on the texture of the entire face. As a result, the texture of the entire face of the subject can be quantified with high accuracy.

また、第1実施形態によれば、各明成分累積値を隣接する累積寄与率のペア毎に表わすことにより、顔全体の質感に与える影響の異なる詳細度レベル(大域傾向から局所傾向)毎のテカリ成分の強さを区別して取得することができる。同様に、各暗成分累積値を隣接する累積寄与率のペア毎に表わすことにより、顔全体の質感に与える影響の異なる詳細度レベル(大域傾向から局所傾向)毎の色ムラ成分及び凹凸ムラ成分の強さを区別して取得することができる。例えば、図7Aの例によれば、所定下限値を含む累積寄与率のペアから所定上限値を含む累積寄与率のペアまで、即ち、大域的なテクスチャから局所的なテクスチャまで、明成分累積値が略均一の上昇幅で推移している。この場合、大域的にも局所的にも顔全体の質感に影響を与えるテカリ成分が存在していると分析することができる。一方、図7Bの例によれば、74%の累積寄与率上にプロットされた暗成分累積値から、80%の累積寄与率上にプロットされた暗成分累積値までの上昇幅が、他の範囲の上昇度に比べて、大きくなっている。この場合、この上昇幅が大きい累積寄与率の範囲で表わされるテクスチャにおいて、色ムラ成分及び凹凸ムラ成分の少なくとも一方が存在していると分析することができる。   In addition, according to the first embodiment, each bright component cumulative value is represented for each pair of adjacent cumulative contribution ratios, so that each level of detail (from global trend to local trend) has a different influence on the texture of the entire face. The strength of the shine component can be distinguished and acquired. Similarly, by expressing each dark component cumulative value for each pair of adjacent cumulative contribution ratios, color unevenness components and uneven unevenness components for each level of detail (global trend to local trend) that have different effects on the texture of the entire face. Can be obtained by distinguishing the strength of. For example, according to the example of FIG. 7A, from the cumulative contribution rate pair including the predetermined lower limit value to the cumulative contribution rate pair including the predetermined upper limit value, that is, from the global texture to the local texture, the bright component cumulative value However, the rate of increase is almost uniform. In this case, it can be analyzed that there is a shine component that affects the texture of the entire face both globally and locally. On the other hand, according to the example of FIG. 7B, the increase from the dark component cumulative value plotted on the cumulative contribution rate of 74% to the dark component cumulative value plotted on the cumulative contribution rate of 80% It is larger than the extent of the range. In this case, it can be analyzed that at least one of the color unevenness component and the unevenness unevenness component is present in the texture represented by the range of the cumulative contribution ratio having a large increase width.

更に、第1実施形態では、上述の分析対象顔画像に関するデータに、基準顔画像に関する、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値が重畳された明成分グラフ及び暗成分グラフを形成するためのデータが生成される。従って、第1実施形態によれば、基準顔画像として、官能評価により美肌や透明感のある肌と判定された顔画像を用いることで、その基準顔と被験者の顔との、顔全体から生じる質感の差を客観的に示すことができる。例えば、図8A及び図8Bの例によれば、分析対象の被験者の顔と基準顔との間で、顔全体の質感に或る程度差が存在することが分かる。更に、例えば、図8Aの明成分グラフと図8Bの暗成分グラフとを比較することにより、被験者の顔全体の質感は、テカリ成分よりも、色ムラ成分及び凹凸ムラ成分の少なくとも一方により大きく由来していると分析することもできる。   Furthermore, in the first embodiment, the light component graph in which the light component accumulated value and the dark component accumulated value for each pair of the adjacent accumulated contribution ratios related to the reference face image are superimposed on the data related to the analysis target face image described above. And data for forming a dark component graph is generated. Therefore, according to the first embodiment, by using a face image determined to be beautiful skin or transparent skin by sensory evaluation as the reference face image, it is generated from the entire face of the reference face and the face of the subject. The difference in texture can be shown objectively. For example, according to the examples of FIGS. 8A and 8B, it can be seen that there is a certain difference in the texture of the entire face between the face of the subject to be analyzed and the reference face. Furthermore, for example, by comparing the light component graph of FIG. 8A and the dark component graph of FIG. 8B, the texture of the entire face of the subject is more largely derived from at least one of the color unevenness component and the uneven unevenness component than the glossy component. You can also analyze it.

[第2実施形態]
第2実施形態では、顔画像を分析するための指標として、基準顔画像と分析対象顔画像との間における、明成分累積値の差分及び暗成分累積値の差分が用いられる。以下、第2実施形態における分析装置10について、第1実施形態と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。
[Second Embodiment]
In the second embodiment, the difference between the light component accumulated value and the dark component accumulated value between the reference face image and the analysis target face image is used as an index for analyzing the face image. Hereinafter, the analyzer 10 according to the second embodiment will be described focusing on the content different from the first embodiment. In the following description, the same contents as those in the first embodiment are omitted as appropriate.

図10は、第2実施形態における分析装置10の処理構成例を概念的に示す図である。第2実施形態における分析装置10は、第1実施形態の構成に加えて、比較部21及び分析情報生成部22を更に有する。比較部21及び分析情報生成部22は、他の各処理部と同様に、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。   FIG. 10 is a diagram conceptually illustrating a processing configuration example of the analysis apparatus 10 in the second embodiment. The analysis apparatus 10 in the second embodiment further includes a comparison unit 21 and an analysis information generation unit 22 in addition to the configuration of the first embodiment. The comparison unit 21 and the analysis information generation unit 22 are realized by executing a program stored in the memory 3 by the CPU 2, for example, as with the other processing units.

比較部21は、基準データ格納部20から、基準顔画像に関する明成分累積値及び暗成分累積値の群を抽出し、当該隣接する累積寄与率の各ペアについて、基準データ格納部20から抽出される明成分累積値と、累積値算出部18により算出される明成分累積値との差分、及び、基準データ格納部20から取得される暗成分累積値と、累積値算出部18により算出される暗成分累積値との差分をそれぞれ算出する。   The comparison unit 21 extracts a group of light component accumulated values and dark component accumulated values related to the reference face image from the reference data storage unit 20, and is extracted from the reference data storage unit 20 for each pair of adjacent accumulated contribution ratios. The difference between the light component accumulated value and the light component accumulated value calculated by the accumulated value calculating unit 18, the dark component accumulated value acquired from the reference data storage unit 20, and the accumulated value calculating unit 18 The difference from the dark component cumulative value is calculated.

情報生成部19は、累積寄与率を示す第1軸と、比較部21により算出される差分を示す第2軸とを含む座標に、比較部21により算出される、当該隣接する累積寄与率の各ペアについての明成分累積値の差分がプロットされた明成分差分グラフ、及び、比較部21により算出された、当該隣接する累積寄与率の各ペアについての暗成分累積値の差分がプロットされた暗成分差分グラフの少なくとも一方を形成するためのデータを生成する。   The information generation unit 19 calculates the adjacent cumulative contribution rate calculated by the comparison unit 21 on the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the difference calculated by the comparison unit 21. The light component difference graph in which the difference in the light component accumulated value for each pair is plotted, and the difference in the dark component accumulated value for each pair of the adjacent accumulated contribution ratio calculated by the comparison unit 21 is plotted. Data for forming at least one of the dark component difference graphs is generated.

図11Aは、明成分差分グラフの例を示す図である。図11Bは、暗成分差分グラフの例を示す図である。図11A及び図11Bの例では、上記所定下限値及び上記所定上限値で決められる累積対象とする累積寄与率の範囲は、68%から98%に設定されている。また、図11A及び図11Bの例では、明成分グラフ及び暗成分グラフの基となる明成分代表値及び暗成分代表値に分散値が利用されている。図11A及び図11Bの例によれば、分析対象顔画像Bは、隣接する累積寄与率の各ペアにおいて差分が小さいため、分析対象顔画像Bに写る顔全体の質感は、基準顔画像に写る顔のそれと近いと判定できる。一方で、分析対象顔画像Aは、明成分差分グラフ及び暗成分差分グラフの両方において、差分が生じているため、分析対象顔画像Aに写る顔は、基準顔画像に写る顔よりもテカリ成分、色ムラ成分及び凹凸ムラ成分が多いと判定できる。更に、累積寄与率の上限値を含むペアにおいて、明成分差分グラフよりも暗成分差分グラフのほうが差分が大きいため、分析対象顔画像Aに写る顔は、テカリ成分よりも、色ムラ成分及び凹凸ムラ成分がより多いと判定することもできる。   FIG. 11A is a diagram illustrating an example of a bright component difference graph. FIG. 11B is a diagram illustrating an example of a dark component difference graph. In the example of FIGS. 11A and 11B, the range of the cumulative contribution rate to be accumulated determined by the predetermined lower limit value and the predetermined upper limit value is set to 68% to 98%. Further, in the examples of FIGS. 11A and 11B, variance values are used for the light component representative value and the dark component representative value that are the basis of the light component graph and the dark component graph. 11A and 11B, since the analysis target face image B has a small difference between adjacent pairs of cumulative contribution ratios, the texture of the entire face that appears in the analysis target face image B appears in the reference face image. It can be determined that it is close to that of the face. On the other hand, since the analysis target face image A has a difference in both the light component difference graph and the dark component difference graph, the face reflected in the analysis target face image A is a shine component rather than the face reflected in the reference face image. It can be determined that there are many color unevenness components and unevenness unevenness components. Furthermore, in the pair including the upper limit value of the cumulative contribution rate, since the difference is larger in the dark component difference graph than in the light component difference graph, the face appearing in the analysis target face image A is more uneven in color and unevenness than the shine component. It can also be determined that there are more uneven components.

情報生成部19は、比較部21により算出された明成分累積値に関する差分を示す第1軸と暗成分累積値に関する差分を示す第2軸とを含む座標に、比較部21により算出された、当該隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値に関する差分がプロットされた比較グラフを形成するためのデータを生成するようにしてもよい。   The information generation unit 19 is calculated by the comparison unit 21 at coordinates including a first axis indicating a difference regarding the bright component cumulative value calculated by the comparison unit 21 and a second axis indicating a difference regarding the dark component cumulative value. You may make it produce | generate the data for forming the comparison graph by which the difference regarding the light component accumulation value and dark component accumulation value about each pair of the said adjacent accumulation contribution rate was plotted.

図12は、比較グラフの例を示す図である。図12で示される比較グラフでは、横軸に明成分累積値に関する差分が設定され、縦軸に暗成分累積値に関する差分が設定されている。各プロットは、隣接する累積寄与率の、対応する各ペアをそれぞれ示している。図12に示されるように、当該比較グラフによれば、顔全体の質感が基準顔画像に写る顔に近い場合に、原点付近にプロットが集まり、顔全体の質感が基準顔画像に写る顔から遠い場合に、原点から離れる方向にプロットが置かれる。   FIG. 12 is a diagram illustrating an example of a comparison graph. In the comparison graph shown in FIG. 12, the horizontal axis indicates the difference regarding the bright component cumulative value, and the vertical axis indicates the difference regarding the dark component cumulative value. Each plot shows a corresponding pair of adjacent cumulative contributions. As shown in FIG. 12, according to the comparison graph, when the texture of the entire face is close to the face reflected in the reference face image, plots gather near the origin, and the texture of the entire face is obtained from the face reflected in the reference face image. If far away, the plot is placed away from the origin.

分析情報生成部22は、比較部21により算出された明成分累積値及び暗成分累積値に関する各差分のうち、隣接する累積寄与率のいずれか1つのペアについての明成分累積値及び暗成分累積値に関する各差分が示す位置の原点からの距離を算出し、その算出された距離に基づいて、基準顔画像に写る顔を基準とした、分析対象顔画像に写る顔の質感分析情報を生成する。距離の算出対象は、上記所定上限値を含む、隣接する累積寄与率のペアについて算出された明成分累積値の差分及び暗成分累積値の差分とされることが望ましい。図12の例では、丸で囲まれた各プロットの原点(0,0)からの各距離がそれぞれ算出される。分析情報生成部22は、当該距離の範囲毎の質感分析結果を示す情報を予めメモリ3に保持し、この情報を用いて分析対象顔画像に写る顔の質感分析情報を生成する。   The analysis information generation unit 22 includes the light component accumulation value and the dark component accumulation for any one pair of adjacent accumulation contribution ratios among the differences regarding the light component accumulation value and the dark component accumulation value calculated by the comparison unit 21. The distance from the origin of the position indicated by each difference regarding the value is calculated, and based on the calculated distance, the texture analysis information of the face appearing in the analysis target face image is generated based on the face appearing in the reference face image. . It is desirable that the distance calculation target be a difference between the bright component cumulative value and the dark component cumulative value calculated for adjacent pairs of cumulative contribution rates including the predetermined upper limit value. In the example of FIG. 12, each distance from the origin (0, 0) of each plot surrounded by a circle is calculated. The analysis information generation unit 22 holds information indicating the texture analysis result for each distance range in the memory 3 in advance, and generates the texture analysis information of the face that appears in the analysis target face image using this information.

〔第2実施形態の作用及び効果〕
第2実施形態では、当該隣接する累積寄与率の各ペアについて、基準顔画像に関する明成分累積値と、分析対象顔画像に関する明成分累積値との差分、及び、基準顔画像に関する暗成分累積値と、分析対象顔画像に関する暗成分累積値との差分がそれぞれ算出される。このように、第2実施形態によれば、基準顔と分析対象顔との間におけるテカリ成分の強さの差、及び、色ムラ成分及び凹凸ムラ成分の強さの差を、大域的傾向から局所的傾向までのテクスチャの各詳細レベルについてそれぞれ定量化することができる。
[Operation and Effect of Second Embodiment]
In the second embodiment, for each pair of adjacent cumulative contribution ratios, the difference between the bright component cumulative value related to the reference face image and the bright component cumulative value related to the analysis target face image, and the dark component cumulative value related to the reference face image And the difference between the dark component accumulated value relating to the analysis target face image. As described above, according to the second embodiment, the difference in the strength of the shine component between the reference face and the analysis target face, and the difference in the strength of the color unevenness component and the unevenness unevenness component are determined from the global tendency. It is possible to quantify each detail level of the texture up to local tendency.

更に、第2実施形態では、隣接する累積寄与率の各ペアについて明成分累積値の差分がそれぞれプロットされた明成分差分グラフ、及び、隣接する累積寄与率の各ペアについて暗成分累積値の差分がそれぞれプロットされた暗成分差分グラフの少なくとも一方が出力される。明成分差分グラフによれば、顔テクスチャの各詳細レベルにおける、基準顔と分析対象顔との間のテカリ成分に関する差を把握し易くすることができる。   Furthermore, in the second embodiment, a light component difference graph in which the difference in the light component accumulated value is plotted for each pair of adjacent accumulated contribution rates, and the difference in the dark component accumulated value for each pair of adjacent accumulated contribution rates Are output at least one of the dark component difference graphs plotted. According to the bright component difference graph, it is possible to easily grasp the difference regarding the shine component between the reference face and the analysis target face at each detailed level of the face texture.

更に、第2実施形態では、明成分累積値の差分及び暗成分累積値の差分が示す位置の原点からの距離に基づいて、基準顔画像に写る顔を基準とした、分析対象顔画像に写る顔の質感分析情報が生成される。これにより、第2実施形態によれば、基準顔画像及び分析対象顔画像を用いることにより、被験者の顔の客観的な質感分析情報を自動生成することができる。例えば、美肌感があると評価された顔が写る画像を基準顔画像とした場合、被験者の顔の美肌感に関する分析情報(美肌への近さ等)が自動生成される。   Furthermore, in the second embodiment, based on the distance from the origin of the position indicated by the difference between the light component accumulated value and the difference between the dark component accumulated values, the image appears in the analysis target face image based on the face in the reference face image. Face texture analysis information is generated. Thereby, according to 2nd Embodiment, objective texture-analysis information of a test subject's face can be automatically produced | generated by using a reference | standard face image and an analysis object face image. For example, when an image showing a face evaluated as having a beautiful skin feeling is used as a reference face image, analysis information (closeness to the beautiful skin, etc.) relating to the beautiful skin feeling of the subject's face is automatically generated.

[補足]
上述の各実施形態では、分析対象顔画像に写る顔を特に制限せず、その顔自体の全体的な質感の定量化が行われたが、分析対象顔画像及び基準顔画像の選定の仕方により、その定量化情報を用いて化粧効果等を評価することもできる。
[Supplement]
In each of the embodiments described above, the face captured in the analysis target face image is not particularly limited, and the overall texture of the face itself is quantified. However, depending on how the analysis target face image and the reference face image are selected. The makeup effect and the like can also be evaluated using the quantified information.

例えば、画像取得部11が、形状が規格化された化粧前顔画像及び形状が規格化された化粧後顔画像を当該分析対象顔画像として取得する場合、情報生成部19は、明成分グラフ及び暗成分グラフに、化粧前顔画像及び化粧後顔画像に関しそれぞれ算出された明成分累積値及び暗成分累積値が重畳されるように、当該データを生成する。また、情報生成部19は、明成分差分グラフ及び暗成分差分グラフに、化粧前顔画像及び化粧後顔画像に関しそれぞれ算出された明成分累積値の差分及び暗成分累積値の差分が重畳されるように、当該データを生成するようにしてもよい。また、情報生成部19は、比較グラフに、化粧前顔画像及び化粧後顔画像に関しそれぞれ算出された明成分累積値の差分及び暗成分累積値の差分が重畳されるように、当該データを生成するようにしてもよい。なお、画像取得部11は、化粧前顔画像を基準顔画像として取得し、化粧後顔画像を分析対象顔画像として取得するようにしてもよい。   For example, when the image acquisition unit 11 acquires a face image before makeup with a normalized shape and a face image after makeup with a normalized shape as the analysis target face image, the information generation unit 19 The data is generated so that the light component cumulative value and the dark component cumulative value calculated for the pre-makeup face image and the post-makeup face image are superimposed on the dark component graph, respectively. In addition, the information generation unit 19 superimposes the difference of the light component accumulated value and the difference of the dark component accumulated value respectively calculated on the face image before makeup and the face image after makeup on the light component difference graph and the dark component difference graph. As such, the data may be generated. In addition, the information generation unit 19 generates the data so that the difference between the bright component accumulated value and the dark component accumulated value calculated for the pre-makeup face image and the post-makeup face image are superimposed on the comparison graph. You may make it do. Note that the image acquisition unit 11 may acquire the pre-makeup face image as the reference face image and acquire the post-makeup face image as the analysis target face image.

図13は、化粧前顔画像及び化粧後顔画像を分析対象顔画像とする比較グラフの例を示す図である。図13によれば、化粧後顔画像に対応する原点からの距離が、化粧前顔画像に対応する原点からの距離よりも短くなっているため、テカリ成分、ムラ成分及び凹凸ムラ成分がその化粧により十分に消されていると判定できる。この場合、分析情報生成部22は、化粧後顔画像及び化粧前顔画像の各々について原点からの距離を算出し、その算出された距離の差により、化粧後顔画像に写る化粧顔に施された化粧の効果を示す化粧効果情報を質感分析情報として生成するようにしてもよい。   FIG. 13 is a diagram illustrating an example of a comparison graph in which the face image before makeup and the face image after makeup are analysis target face images. According to FIG. 13, since the distance from the origin corresponding to the post-makeup face image is shorter than the distance from the origin corresponding to the pre-makeup face image, the shine component, unevenness component and uneven unevenness component It can be determined that it has been sufficiently erased. In this case, the analysis information generation unit 22 calculates the distance from the origin for each of the post-makeup face image and the pre-makeup face image, and is applied to the makeup face reflected in the post-makeup face image based on the calculated difference in distance. Alternatively, makeup effect information indicating the effect of makeup may be generated as texture analysis information.

他の例として、画像取得部11が、化粧顔の経時変化を示す、形状が規格化された複数の化粧顔画像を分析対象顔画像として取得してもよい。この場合、情報生成部19により生成されるデータから出力されるグラフにより、所定時間経過前後の各化粧顔画像に関しそれぞれ質感の定量化をすることができる。また、所定時間経過前後の各化粧顔画像に関し、原点からの距離をそれぞれ算出することができる。これにより、その化粧の時間的な崩れ度合い情報が質感分析情報として取得され得る。   As another example, the image acquisition unit 11 may acquire, as analysis target face images, a plurality of makeup face images whose shapes are standardized and that indicate changes in the makeup face over time. In this case, the texture of each makeup face image before and after the elapse of a predetermined time can be quantified using the graph output from the data generated by the information generation unit 19. Further, the distance from the origin can be calculated for each makeup face image before and after the predetermined time has elapsed. Thereby, the temporal collapse information of the makeup can be acquired as the texture analysis information.

他の例として、画像取得部11が、スキンケア化粧料を用いる前のスキンケア前顔画像、及び、スキンケア化粧料を用いた後のスキンケア後顔画像を当該分析対象顔画像として取得するようにしてもよい。これによれば、スキンケア化粧料を用いる前と後との顔の質感を定量化することができ、ひいては、スキンケア化粧料の効果を評価することもできる。   As another example, the image acquisition unit 11 may acquire a skin care pre-face image before using the skin care cosmetic and a skin care post-face image after using the skin care cosmetic as the analysis target face image. Good. According to this, the texture of the face before and after using the skin care cosmetic can be quantified, and the effect of the skin care cosmetic can also be evaluated.

[変形例]
上述の各実施形態では、再構成部15における再現顔画像の生成対象が、上記所定下限値から上記所定上限値までの累積寄与率の範囲に制限されたが、再構成部15は、50%以上100%以下の累積寄与率の全範囲に関し、各再現顔画像をそれぞれ生成するようにしてもよい。この場合、差分算出部16、代表値算出部17、又は、累積値算出部18が、最終的に、上記所定下限値から上記所定上限値までの累積寄与率の範囲に対応する明成分累積値及び暗成分累積値が生成されるように、計算対象とする再現顔画像を制限するようにすればよい。
[Modification]
In each of the embodiments described above, the generation target of the reproduced face image in the reconstruction unit 15 is limited to the range of the cumulative contribution rate from the predetermined lower limit value to the predetermined upper limit value. Each reproduced face image may be generated for the entire range of the cumulative contribution rate of 100% or less. In this case, the difference calculation unit 16, the representative value calculation unit 17, or the cumulative value calculation unit 18 finally has a bright component cumulative value corresponding to the cumulative contribution rate range from the predetermined lower limit value to the predetermined upper limit value. In addition, the reproduction face image to be calculated may be limited so that the cumulative dark component value is generated.

以下に実施例を挙げ、上述の各実施形態を更に詳細に説明する。本発明は以下の実施例から何ら制限を受けない。以下の実施例では、形状が規格化された複数のサンプル顔画像として、視点、照明及び形状の各条件が統一された277枚の顔画像が用いられ、累積寄与率の所定精度が3%に設定される。   Examples will be given below to describe the above-described embodiments in more detail. The present invention is not limited by the following examples. In the following example, 277 face images with unified viewpoint, illumination, and shape conditions are used as a plurality of sample face images whose shapes are standardized, and the predetermined accuracy of the cumulative contribution rate is 3%. Is set.

本実施例では、専門評価員が透明感を感じた5つの顔画像(以降、透明感顔画像と表記する)の各々を分析対象顔画像とし、上述の第1実施形態の手法が実施された。図14Aは、5つの透明感顔画像に関する明成分グラフを示す図であり、図14Bは、5つの透明感顔画像に関する暗成分グラフを示す図である。ここで、68%以上98%以下の累積寄与率の範囲に限定して明成分累積値及び暗成分累積値を求めると、図15A及び図15Bのようなグラフが表わされた。   In this example, each of the five face images (hereinafter referred to as “transparency face images”) that the expert evaluator felt transparent was used as the analysis target face image, and the above-described method of the first embodiment was performed. . FIG. 14A is a diagram illustrating a light component graph regarding five transparent face-sensitive images, and FIG. 14B is a diagram illustrating a dark component graph regarding five transparent face-sensitive images. Here, when the light component cumulative value and the dark component cumulative value are obtained by limiting to the range of the cumulative contribution ratio of 68% or more and 98% or less, graphs as shown in FIGS. 15A and 15B are obtained.

図15Aは、68%以上98%以下の累積寄与率の範囲における明成分グラフを示す図であり、図15Bは、68%以上98%以下の累積寄与率の範囲における暗成分グラフを示す図である。図15A及び図15Bに示されるように、隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値は、68%以上98%以下の累積寄与率の範囲において、各透明感顔画像間で同様の傾向を示している。そこで、本実施例の条件下(サンプル数277、累積寄与率精度3%)では、顔全体の透明感に与える影響が特に大きいテクスチャ情報を持つ質感寄与範囲は、68%以上98%以下の範囲に設定することができる。   FIG. 15A is a diagram showing a light component graph in the range of cumulative contribution ratios of 68% or more and 98% or less, and FIG. 15B is a diagram showing a dark component graph in the range of cumulative contribution ratios of 68% or more and 98% or less. is there. As shown in FIG. 15A and FIG. 15B, the light component cumulative value and the dark component cumulative value for each pair of adjacent cumulative contribution rates are in the range of 68% to 98% cumulative contribution rate. The same tendency is shown between images. Therefore, under the conditions of this embodiment (number of samples: 277, cumulative contribution rate accuracy: 3%), the texture contribution range having texture information that has a particularly large effect on the transparency of the entire face is in the range of 68% to 98%. Can be set to

なお、本実施例では、累積寄与率の質感寄与範囲として68%以上98%以下の範囲が設定されたが、各透明感顔画像のプロット軌跡が同じような形状を示す範囲をその質感寄与範囲として設定されればよい。よって、図14A及び図14Bの例によれば、質感寄与範囲を示す所定下限値は59%以上68%未満に設定されてもよく、当該質感寄与範囲を示す所定上限値は95%程度に設定されてもよい。更に、累積寄与率の質感寄与範囲として上述の68%以上98%以下の範囲の内側、即ち、所定上限値が68%以上で、所定下限値が98%以下の範囲に設定されてもよい。   In the present embodiment, the range of 68% to 98% is set as the texture contribution range of the cumulative contribution rate, but the range in which the plot trajectory of each transparent face image shows a similar shape is the texture contribution range. May be set as. Therefore, according to the example of FIGS. 14A and 14B, the predetermined lower limit value indicating the texture contribution range may be set to 59% or more and less than 68%, and the predetermined upper limit value indicating the texture contribution range is set to about 95%. May be. Furthermore, the texture contribution range of the cumulative contribution rate may be set to the inside of the above-described range of 68% to 98%, that is, a range in which the predetermined upper limit value is 68% or more and the predetermined lower limit value is 98% or less.

ここで、上述の5つの透明感顔画像における明成分累積値及び暗成分累積値を平均することで、代表的な透明感顔画像に関する明成分累積値及び暗成分累積値を算出し、その算出されたデータに対応する顔画像が代表的な透明感顔画像として位置付けられる。本実施例では、この代表的な透明感顔画像と他の顔画像との間の関係が比較された。比較対象として、テカリ成分、色ムラ成分及び凹凸ムラ成分のような透明感の阻害要因を持つ顔の顔画像(図16A及び図16Bでは透明感阻害顔と表記)及び透明感の阻害要因が少なく透明感が感じられる顔の顔画像(図16A及び図16Bでは美肌顔と表記)が用いられた。   Here, the light component cumulative value and the dark component cumulative value in the five transparent face-sensitive images described above are averaged to calculate the light component cumulative value and the dark component cumulative value related to the representative transparent face-sensitive image, and the calculation The face image corresponding to the recorded data is positioned as a representative transparent face image. In this example, the relationship between this representative transparent face image and other face images was compared. As comparison objects, face images having a transparency obstruction factor such as a shine component, color unevenness component, and uneven unevenness component (indicated as “transparency inhibition face” in FIGS. 16A and 16B) and transparency obstruction factors are few. A face image of a face that can be felt transparent (noted as a beautiful skin face in FIGS. 16A and 16B) was used.

図16Aは、代表的な透明感顔画像及び比較対象顔画像に関する明成分グラフを示す図であり、図16Bは、代表的な透明感顔画像及び比較対象顔画像に関する暗成分グラフを示す図である。図16A及び図16Bに示されるように、68%以上98%以下の累積寄与率の範囲における明成分累積値及び暗成分累積値が、代表的な透明感顔画像と美肌顔の画像との間で同様に累積寄与率の増加割合が小さい傾向を示し、代表的な透明感顔画像と透明感阻害顔の画像との間で異なる傾向を示した。この比較からも、上述のような累積寄与率の質感寄与範囲が、顔全体の透明感に与える影響が特に大きいテクスチャ情報を持つことの正当性が証明される。併せて、上述の各実施形態において、隣接する累積寄与率の各ペアについて算出される明成分累積値及び暗成分累積値が、顔全体の質感を高精度に定量化したものであることも証明される。   FIG. 16A is a diagram illustrating a light component graph regarding a representative transparent face image and a comparison target face image, and FIG. 16B is a diagram illustrating a dark component graph regarding a typical transparent face image and a comparison target face image. is there. As shown in FIG. 16A and FIG. 16B, the light component cumulative value and the dark component cumulative value in the range of the cumulative contribution ratio of 68% or more and 98% or less are between a representative transparent face image and a beautiful skin face image. In the same way, the increase rate of the cumulative contribution rate tended to be small, and the tendency was different between the representative transparent face image and the transparency-inhibited face image. This comparison also proves that the texture contribution range of the cumulative contribution rate as described above has texture information that has a particularly large influence on the transparency of the entire face. In addition, in each of the above-described embodiments, it is also proved that the light component cumulative value and the dark component cumulative value calculated for each pair of adjacent cumulative contribution ratios quantify the texture of the entire face with high accuracy. Is done.

更に、本実施例では、ランダムに選ばれた複数の顔画像を分析対象顔画像とし、基準顔画像を上述の代表的な透明感顔画像として、各分析対象顔画像について、上述の第2実施形態における、明成分累積値の差分及び暗成分累積値の差分が示す位置の原点からの距離がそれぞれ算出された。そして、算出された距離の中から、各距離が略等しい幅で増加するような距離の組み合わせ(16枚の顔画像に対応)が抽出され、その組み合わせに対応する各顔画像について、第2実施形態の手法で算出される各距離と、専門評価員の官能評価(心理評価)の結果とが比較された。   Furthermore, in the present embodiment, the plurality of randomly selected face images are set as analysis target face images, the reference face image is set as the above-described representative transparent face image, and each analysis target face image is set as described in the second embodiment. In the embodiment, the distance from the origin of the position indicated by the difference between the bright component accumulated value and the dark component accumulated value was calculated. Then, a combination of distances (corresponding to 16 face images) is extracted from the calculated distances so that each distance increases with a substantially equal width, and the second implementation is performed for each face image corresponding to the combination. Each distance calculated by the method of form was compared with the result of the sensory evaluation (psychological evaluation) of the expert evaluator.

図17は、各距離が略等しい幅で増加するような距離の組み合わせに対応する16枚の顔画像と、各顔画像に関し算出される原点からの距離とを示す図である。図17に示されるように、第2実施形態の手法によれば、顔画像B61が、当該代表的な透明感顔画像から最も離れる、即ち、最も大きい透明感阻害要因を持つと分析することができ、顔画像B16が、当該代表的な透明感顔画像に最も近似する、即ち、最も透明感阻害要因が小さいと分析することができる。   FIG. 17 is a diagram illustrating 16 face images corresponding to combinations of distances in which the distances increase with substantially equal widths, and distances from the origin calculated for the face images. As shown in FIG. 17, according to the method of the second embodiment, it is possible to analyze that the face image B61 is farthest from the representative transparent face image, that is, has the largest transparency impeding factor. It is possible to analyze that the face image B16 is most similar to the representative transparent face image, that is, has the smallest transparency hindrance factor.

図18は、図17に示される各顔画像に関する明成分累積値の差分及び暗成分累積値の差分と、各顔画像に関する官能評価結果とを示す図である。図18に示される各プロットは、16枚の各顔画像に関し算出された明成分累積値の差分及び暗成分累積値の差分をそれぞれ示し、各プロットに付された数値が、専門評価員の官能評価の結果をそれぞれ示す。官能評価では、16枚の顔画像の透明感について、専門評価員により、次の5段階で評価され、その評価の平均値が各顔画像についてそれぞれ評価結果として算出された。
1:透明感がある、2:やや透明感がある、3:どちらとも言えない、4:やや透明感がない、5:透明感がない
FIG. 18 is a diagram illustrating the difference between the bright component cumulative value and the dark component cumulative value regarding each face image shown in FIG. 17 and the sensory evaluation result regarding each face image. Each plot shown in FIG. 18 shows the difference between the light component cumulative value and the dark component cumulative value calculated for each of the 16 face images, and the numerical value given to each plot is the sensory value of the expert evaluator. The result of evaluation is shown respectively. In the sensory evaluation, the transparency of the 16 face images was evaluated by the expert evaluator in the following five stages, and the average value of the evaluation was calculated as the evaluation result for each face image.
1: There is a sense of transparency, 2: There is a little sense of transparency, 3: It can be said neither, 4: There is no sense of transparency, 5: There is no sense of transparency

図18によれば、原点に近い位置にプロットされた顔画像の官能評価結果が1であり、プロット位置が原点から離れれば離れる程、その顔画像の官能評価結果を示す数値が概ね大きくなっている。このような結果について、スピアマンの順位相関係数によれば、原点からの距離の順位と、官能評価結果の順位との間に、0.98という相関値が得られた。このことから、上述の第2実施形態において、基準顔画像に写る顔を基準とした、分析対象顔画像に写る顔の質感を示すものとして算出される原点からの距離が、官能評価の結果と高い相関を示すことが検証された。これにより、上述の各実施形態における顔全体の質感の定量化の正当性も証明される。   According to FIG. 18, the sensory evaluation result of the face image plotted at a position close to the origin is 1, and the numerical value indicating the sensory evaluation result of the face image becomes larger as the plot position is further away from the origin. Yes. According to Spearman's rank correlation coefficient, a correlation value of 0.98 was obtained between the rank from the origin and the rank of the sensory evaluation result. Therefore, in the second embodiment described above, the distance from the origin calculated as indicating the texture of the face appearing in the analysis target face image with respect to the face appearing in the reference face image is the sensory evaluation result. It was verified to show a high correlation. This also proves the validity of quantifying the texture of the entire face in each of the above-described embodiments.

図19は、図17に示される各顔画像に関し算出される原点からの距離と、各顔画像に関する官能評価結果とを示す図である。図19においても、上述の第2実施形態の手法により算出される原点からの距離が、専門評価員の官能評価の結果と相関を示すことが確認できる。   FIG. 19 is a diagram showing the distance from the origin calculated for each face image shown in FIG. 17 and the sensory evaluation results for each face image. Also in FIG. 19, it can be confirmed that the distance from the origin calculated by the method of the second embodiment described above correlates with the result of the sensory evaluation of the professional evaluator.

図20は、原点からの距離の範囲毎の質感分析結果を示す情報の例を示す図である。上述のような結果から、分析情報生成部22は、図20に示されるような、原点からの距離の範囲毎の質感分析結果を示す情報を予めメモリ3に保持し、この情報を用いて分析対象顔画像に写る顔の質感分析情報を生成するようにすればよい。   FIG. 20 is a diagram illustrating an example of information indicating a texture analysis result for each range of distance from the origin. From the results as described above, the analysis information generation unit 22 holds information indicating the texture analysis result for each range of distance from the origin as shown in FIG. 20 in advance in the memory 3 and uses this information for analysis. What is necessary is just to produce | generate the texture analysis information of the face reflected in a target face image.

なお、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。   In addition, each above-mentioned embodiment and each modification can be combined in the range in which the content does not conflict.

上記の各実施形態及び各変形例の一部又は全部は、次のようにも特定され得る。但し、上述の各実施形態及び各変形例が以下の記載に制限されるものではない。   A part or all of each of the above embodiments and modifications may be specified as follows. However, each above-mentioned embodiment and each modification are not restrict | limited to the following description.

<1>形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得手段と、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出する主成分分析手段と、
前記主成分分析手段により算出される各基底係数及び前記サンプル取得手段により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成手段と、
隣接する累積寄与率のペアに関し前記再構成手段により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出手段と、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出手段と、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出手段と、
を備える顔画像分析装置。
<1> sample acquisition means for acquiring average face image information of a plurality of sample face images whose shapes are standardized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
A principal component analysis means for calculating a basis coefficient of each basis function for the analysis target face image by performing principal component analysis on the analysis target face image whose shape is normalized;
Based on each basis coefficient calculated by the principal component analysis means and a plurality of basis functions and average face image information acquired by the sample acquisition means, each reproduction face corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy Reconstruction means for generating each image;
By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated by the reconstructing means with respect to adjacent cumulative contribution rate pairs, the lower-order reproduced face image Difference calculation means for generating at least one of a bright difference image from which dark components have been removed and a dark difference image from which components brighter than the lower-order reproduced face image have been removed for each pair of adjacent cumulative contribution rates When,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. Representative value calculating means for calculating
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Cumulative value calculating means for calculating at least one of dark component cumulative values,
A face image analyzing apparatus.

<2>前記累積値算出手段は、50%より大きい所定下限値から100%未満の所定上限値までの前記累積寄与率の範囲で、前記明成分累積値及び前記暗成分累積値を得る、
<1>に記載の顔画像分析装置。
<3>前記所定下限値は68%以上であり、前記所定上限値は98%以下であり、累積寄与率の前記所定精度は3%である、
<2>に記載の顔画像分析装置。
<4>累積寄与率を示す第1軸と前記明成分累積値を示す第2軸とを含む座標に、前記累積値算出手段により算出された、前記隣接する累積寄与率の各ペアについての明成分累積値がプロットされた明成分グラフ、及び、累積寄与率を示す第1軸と前記暗成分累積値を示す第2軸とを含む座標に、前記累積値算出手段により算出された、前記隣接する累積寄与率の各ペアについての暗成分累積値がプロットされた暗成分グラフの少なくとも1つを形成するためのデータを生成する第1情報生成手段、
を更に備える<1>から<3>のいずれか1つに記載の顔画像分析装置。
<5>前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方の群を取得する基準取得手段、
を更に備え、
前記第1情報生成手段は、前記基準取得手段により取得される前記隣接する累積寄与率の各ペアについての明成分累積値が重畳的にプロットされた前記明成分グラフ、及び、前記基準取得手段により取得される前記隣接する累積寄与率の各ペアについての暗成分累積値が重畳的にプロットされた前記暗成分グラフの少なくとも1つを形成するためのデータを生成する、
<4>に記載の顔画像分析装置。
<6>前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方の群を取得する基準取得手段と、
前記隣接する累積寄与率の各ペアについて、前記基準取得手段により取得される明成分累積値と前記累積値算出手段により算出される明成分累積値との差分、及び、前記基準取得手段により取得される暗成分累積値と前記累積値算出手段により算出される暗成分累積値との差分の少なくとも一方をそれぞれ算出する比較手段と、
を更に備える<1>から<5>のいずれか1つに記載の顔画像分析装置。
<7>累積寄与率を示す第1軸と、前記比較手段により算出される差分を示す第2軸とを含む座標に、前記比較手段により算出される、前記隣接する累積寄与率の各ペアについての明成分累積値の差分がプロットされた明成分差分グラフ、及び、前記比較手段により算出される、前記隣接する累積寄与率の各ペアについての暗成分累積値の差分がプロットされた暗成分差分グラフ、並びに、前記明成分累積値に関する差分を示す第1軸と前記暗成分累積値に関する差分を示す第2軸とを含む座標に、前記比較手段により算出された、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値に関する差分がプロットされた比較グラフの少なくとも1つを形成するためのデータを生成する第2情報生成手段、
を更に備える<6>に記載の顔画像分析装置。
<8>前記隣接する累積寄与率のいずれか1つのペアについて前記比較手段により算出される明成分累積値及び暗成分累積値の少なくとも一方に関する差分が示す位置の原点からの距離を算出し、該算出された距離に基づいて、前記基準顔画像に写る顔を基準とした、前記分析対象顔画像に写る顔の質感分析情報を生成する分析情報生成手段、
を更に備える<6>又は<7>に記載の顔画像分析装置。
<9>形状が規格化された化粧前顔画像及び形状が規格化された化粧後顔画像を前記分析対象顔画像として取得する画像取得手段、
を更に備え、
前記分析情報生成手段は、前記化粧前顔画像及び前記化粧後顔画像に関する化粧効果情報を前記質感分析情報として生成する、
<8>に記載の顔画像分析装置。
<10>化粧顔の経時変化を示す、形状が規格化された複数の化粧顔画像を前記分析対象顔画像として取得する画像取得手段、
を更に備え、
前記分析情報生成手段は、前記化粧顔の化粧崩れ度合い情報を前記質感分析情報として生成する、
<8>又は<9>に記載の顔画像分析装置。
<11>少なくとも1つのコンピュータが、
形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得し、
分析対象顔画像の形状を規格化し、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出し、
前記算出される各基底係数及び前記取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成し、
隣接する累積寄与率のペアに関し生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成し、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出し、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する、
ことを含む顔画像分析方法。
<12>明成分累積値及び暗成分累積値の前記算出は、50%より大きい所定下限値から100%未満の所定上限値までの前記累積寄与率の範囲で、前記明成分累積値及び前記暗成分累積値を得る、
<11>に記載の顔画像分析方法。
<13>前記所定下限値は68%以上であり、前記所定上限値は98%以下であり、累積寄与率の前記所定精度は3%である、
<12>に記載の顔画像分析方法。
<14>前記少なくとも1つのコンピュータが、
累積寄与率を示す第1軸と前記明成分累積値を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについて算出された明成分累積値がプロットされた明成分グラフ、及び、累積寄与率を示す第1軸と前記暗成分累積値を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについて算出された暗成分累積値がプロットされた暗成分グラフの少なくとも1つを形成するためのデータを生成する、
ことを更に含む<11>から<13>のいずれか1つに記載の顔画像分析方法。
<15>前記少なくとも1つのコンピュータが、
前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方の群を取得し、
前記取得される前記隣接する累積寄与率の各ペアについての明成分累積値が重畳的にプロットされた前記明成分グラフ、及び、前記取得される前記隣接する累積寄与率の各ペアについての暗成分累積値が重畳的にプロットされた前記暗成分グラフの少なくとも1つを形成するためのデータを生成する、
ことを更に含む<14>に記載の顔画像分析方法。
<16>前記少なくとも1つのコンピュータが、
前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方の群を取得し、
前記隣接する累積寄与率の各ペアについて、前記基準顔画像に関し取得される明成分累積値と前記分析対象顔画像に関し算出される明成分累積値との差分、及び、前記基準顔画像に関し取得される暗成分累積値と前記分析対象顔画像に関し算出される暗成分累積値との差分の少なくとも一方をそれぞれ算出する、
ことを更に含む<11>から<15>のいずれか1つに記載の顔画像分析方法。
<17>前記少なくとも1つのコンピュータが、
累積寄与率を示す第1軸と、前記算出される差分を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについての明成分累積値の差分がプロットされた明成分差分グラフ、及び、前記隣接する累積寄与率の各ペアについての暗成分累積値の差分がプロットされた暗成分差分グラフ、並びに、前記明成分累積値に関する差分を示す第1軸と前記暗成分累積値に関する差分を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値に関する差分がプロットされた比較グラフの少なくとも1つを形成するためのデータを生成する、
ことを更に含む<16>に記載の顔画像分析方法。
<18>前記少なくとも1つのコンピュータが、
前記隣接する累積寄与率のいずれか1つのペアについて算出される明成分累積値及び暗成分累積値の少なくとも一方に関する差分が示す位置の原点からの距離を算出し、
前記算出された距離に基づいて、前記基準顔画像に写る顔を基準とした、前記分析対象顔画像に写る顔の質感分析情報を生成する、
ことを更に含む<16>又は<17>に記載の顔画像分析方法。
<19>前記少なくとも1つのコンピュータが、
形状が規格化された化粧前顔画像及び形状が規格化された化粧後顔画像を前記分析対象顔画像として取得し、
前記化粧前顔画像及び前記化粧後顔画像に関する化粧効果情報を前記質感分析情報として生成する、
ことを更に含む<18>に記載の顔画像分析方法。
<20>前記少なくとも1つのコンピュータが、
化粧顔の経時変化を示す、形状が規格化された複数の化粧顔画像を前記分析対象顔画像として取得し、
前記化粧顔の化粧崩れ度合い情報を前記質感分析情報として生成する、
ことを更に含む<18>又は<19>に記載の顔画像分析方法。
<21>少なくとも1つのコンピュータに、
形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得手段と、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出する主成分分析手段と、
前記主成分分析手段により算出される各基底係数及び前記サンプル取得手段により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成手段と、
隣接する累積寄与率のペアに関し前記再構成手段により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出手段と、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出手段と、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出手段と、
を実現させるプログラム。
<2> The cumulative value calculation means obtains the light component cumulative value and the dark component cumulative value in a range of the cumulative contribution ratio from a predetermined lower limit value greater than 50% to a predetermined upper limit value less than 100%.
The face image analyzing apparatus according to <1>.
<3> The predetermined lower limit is 68% or more, the predetermined upper limit is 98% or less, and the predetermined accuracy of the cumulative contribution rate is 3%.
<2> The facial image analysis apparatus according to <2>.
<4> Brightness for each pair of adjacent cumulative contribution ratios calculated by the cumulative value calculation means at coordinates including a first axis indicating the cumulative contribution ratio and a second axis indicating the bright component cumulative value. The adjacent component calculated by the cumulative value calculation means on the light component graph in which the component cumulative value is plotted, and the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the dark component cumulative value. First information generating means for generating data for forming at least one of a dark component graph in which dark component cumulative values for each pair of cumulative contributions to be plotted are plotted;
The face image analyzing apparatus according to any one of <1> to <3>, further comprising:
<5> Reference acquisition for acquiring at least one group of a light component cumulative value and a dark component cumulative value for each pair of the adjacent cumulative contribution ratios corresponding to a reference face image to be compared with the analysis target face image means,
Further comprising
The first information generating unit includes the bright component graph in which the bright component cumulative value for each pair of the adjacent cumulative contribution ratios acquired by the reference acquiring unit is superimposed and the reference acquiring unit Generating data to form at least one of the dark component graphs in which dark component cumulative values for each pair of acquired cumulative contributions that are acquired are superimposed and plotted;
<4> The face image analyzing apparatus according to <4>.
<6> Reference acquisition for acquiring at least one group of a light component cumulative value and a dark component cumulative value for each pair of adjacent cumulative contribution ratios corresponding to a reference face image to be compared with the analysis target face image Means,
For each pair of adjacent cumulative contribution ratios, the difference between the bright component accumulated value acquired by the reference acquiring unit and the bright component accumulated value calculated by the accumulated value calculating unit, and acquired by the reference acquiring unit. Comparing means for calculating at least one of the differences between the dark component accumulated value and the dark component accumulated value calculated by the accumulated value calculating means,
The face image analyzer according to any one of <1> to <5>, further comprising:
<7> For each pair of adjacent cumulative contribution ratios calculated by the comparison means at coordinates including a first axis indicating the cumulative contribution ratio and a second axis indicating the difference calculated by the comparison means A light component difference graph in which the difference between the light component accumulated values is plotted, and a dark component difference in which the difference between the dark component accumulated values for each pair of the adjacent cumulative contribution ratios calculated by the comparison unit is plotted. The coordinates of the adjacent cumulative contribution rate calculated by the comparison means are calculated on the coordinates including the graph and the first axis indicating the difference regarding the bright component cumulative value and the second axis indicating the difference regarding the dark component cumulative value. Second information generating means for generating data for forming at least one of comparison graphs in which differences regarding the light component accumulated value and the dark component accumulated value for each pair are plotted;
The face image analyzer according to <6>, further comprising:
<8> calculating the distance from the origin of the position indicated by the difference regarding at least one of the light component cumulative value and the dark component cumulative value calculated by the comparison unit for any one of the adjacent cumulative contribution ratios; Analysis information generating means for generating texture analysis information of a face shown in the analysis target face image based on the calculated distance based on the face shown in the reference face image;
The face image analyzing apparatus according to <6> or <7>, further comprising:
<9> Image acquisition means for acquiring a face image before makeup with a normalized shape and a face image after makeup with a normalized shape as the analysis target face image;
Further comprising
The analysis information generation means generates makeup effect information regarding the pre-makeup face image and the post-makeup face image as the texture analysis information.
<8> The face image analyzing apparatus according to <8>.
<10> Image acquisition means for acquiring a plurality of makeup face images whose shapes are standardized, showing a change in the makeup face over time, as the analysis target face images;
Further comprising
The analysis information generating means generates the makeup disintegration degree information of the makeup face as the texture analysis information.
<8> or <9> The face image analyzer according to <9>.
<11> At least one computer is
Obtaining average face image information of a plurality of sample face images whose shapes are standardized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
Standardize the shape of the face image to be analyzed,
By performing principal component analysis on the analysis target face image whose shape is normalized, the basis coefficients of the respective basis functions for the analysis target face image are calculated,
Based on each of the calculated basis coefficients and the acquired plurality of basis functions and average face image information, each reproduced face image corresponding to each of the plurality of cumulative contribution ratios of predetermined accuracy is generated,
By calculating the difference in brightness information between the lower-order reproduced face image and the higher-order reproduced face image generated for adjacent cumulative contribution ratio pairs, darker components than the lower-order reproduced face image are removed. Generated at least one of the bright difference image and the dark difference image from which a brighter component is removed than the low-order reproduction face image is generated for each pair of adjacent cumulative contribution rates,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. For each
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Calculating at least one of the dark component cumulative values,
Face image analysis method including
<12> The calculation of the light component cumulative value and the dark component cumulative value is performed within the range of the cumulative contribution ratio from a predetermined lower limit value greater than 50% to a predetermined upper limit value less than 100%, and the light component cumulative value and the dark component cumulative value. Get component cumulative value,
<11> The face image analysis method according to <11>.
<13> The predetermined lower limit is 68% or more, the predetermined upper limit is 98% or less, and the predetermined accuracy of the cumulative contribution rate is 3%.
<12> The face image analysis method according to <12>.
<14> The at least one computer is
A light component graph in which the light component cumulative values calculated for each pair of the adjacent cumulative contribution rates are plotted on coordinates including a first axis indicating a cumulative contribution rate and a second axis indicating the light component cumulative value; And a dark component in which the dark component cumulative value calculated for each pair of adjacent cumulative contribution rates is plotted on coordinates including a first axis indicating the cumulative contribution rate and a second axis indicating the dark component cumulative value. Generating data to form at least one of the graphs;
The face image analysis method according to any one of <11> to <13>, further including:
<15> The at least one computer is
Obtaining a group of at least one of a light component cumulative value and a dark component cumulative value for each pair of the adjacent cumulative contribution ratios corresponding to a reference face image for comparison with the analysis target face image;
The bright component graph in which the bright component cumulative values for each pair of the acquired cumulative contribution ratios acquired are superimposed and the dark component for each pair of the acquired cumulative contribution ratios that are acquired. Generating data to form at least one of the dark component graphs with cumulative values plotted superimposed thereon;
The facial image analysis method according to <14>, further including:
<16> The at least one computer is
Obtaining a group of at least one of a light component cumulative value and a dark component cumulative value for each pair of the adjacent cumulative contribution ratios corresponding to a reference face image for comparison with the analysis target face image;
For each pair of adjacent cumulative contribution ratios, the difference between the bright component cumulative value acquired for the reference face image and the bright component cumulative value calculated for the analysis target face image, and the reference face image is acquired. Calculating at least one of the difference between the dark component accumulated value and the dark component accumulated value calculated for the analysis target face image,
The face image analysis method according to any one of <11> to <15>, further including:
<17> The at least one computer is
The bright component difference in which the difference between the bright component cumulative values for each pair of the adjacent cumulative contribution rates is plotted on the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the calculated difference. A graph, a dark component difference graph in which a difference of dark component cumulative values for each pair of adjacent cumulative contribution ratios is plotted, and a first axis indicating a difference related to the light component cumulative value and the dark component cumulative value Forming at least one of a comparison graph in which a difference relating to a light component cumulative value and a dark component cumulative value for each pair of the adjacent cumulative contribution ratios is plotted at coordinates including a second axis indicating a difference regarding Generate data,
The face image analysis method according to <16>, further including:
<18> The at least one computer is
Calculating the distance from the origin of the position indicated by the difference regarding at least one of the light component cumulative value and the dark component cumulative value calculated for any one of the adjacent cumulative contribution ratios;
Based on the calculated distance, generating a texture analysis information of the face shown in the analysis target face image based on the face shown in the reference face image;
The face image analysis method according to <16> or <17>, further including:
<19> The at least one computer is
Obtaining a pre-makeup face image with a normalized shape and a post-makeup face image with a normalized shape as the analysis target face image;
Generating makeup effect information about the pre-makeup face image and the post-makeup face image as the texture analysis information;
The face image analysis method according to <18>, further including:
<20> The at least one computer is
A plurality of makeup face images whose shape is standardized, showing a change in the makeup face over time, are acquired as the analysis target face images;
Generating makeup disintegration degree information of the makeup face as the texture analysis information;
The facial image analysis method according to <18> or <19>, further comprising:
<21> To at least one computer,
Sample acquisition means for acquiring average face image information of a plurality of sample face images whose shapes are normalized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
A principal component analysis means for calculating a basis coefficient of each basis function for the analysis target face image by performing principal component analysis on the analysis target face image whose shape is normalized;
Based on each basis coefficient calculated by the principal component analysis means and a plurality of basis functions and average face image information acquired by the sample acquisition means, each reproduction face corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy Reconstruction means for generating each image;
By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated by the reconstructing means with respect to adjacent cumulative contribution rate pairs, the lower-order reproduced face image Difference calculation means for generating at least one of a bright difference image from which dark components have been removed and a dark difference image from which components brighter than the lower-order reproduced face image have been removed for each pair of adjacent cumulative contribution rates When,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. Representative value calculating means for calculating
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Cumulative value calculating means for calculating at least one of dark component cumulative values,
A program that realizes

2 CPU
3 メモリ
4 入出力I/F
9 出力部
10 顔画像分析装置(分析装置)
11 画像取得部
12 規格化処理部
13 主成分分析部
14 サンプルデータ格納部
15 再構成部
16 差分算出部
17 代表値算出部
18 累積値算出部
19 情報生成部
20 基準データ格納部
21 比較部
22 分析情報生成部
2 CPU
3 Memory 4 Input / output I / F
9 Output unit 10 Face image analyzer (analyzer)
DESCRIPTION OF SYMBOLS 11 Image acquisition part 12 Normalization processing part 13 Principal component analysis part 14 Sample data storage part 15 Reconstruction part 16 Difference calculation part 17 Representative value calculation part 18 Cumulative value calculation part 19 Information generation part 20 Reference data storage part 21 Comparison part 22 Analysis information generator

Claims (9)

形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得手段と、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出する主成分分析手段と、
前記主成分分析手段により算出される各基底係数及び前記サンプル取得手段により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成手段と、
隣接する累積寄与率のペアに関し前記再構成手段により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出手段と、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出手段と、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出手段と、
を備える顔画像分析装置。
Sample acquisition means for acquiring average face image information of a plurality of sample face images whose shapes are normalized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
A principal component analysis means for calculating a basis coefficient of each basis function for the analysis target face image by performing principal component analysis on the analysis target face image whose shape is normalized;
Based on each basis coefficient calculated by the principal component analysis means and a plurality of basis functions and average face image information acquired by the sample acquisition means, each reproduction face corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy Reconstruction means for generating each image;
By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated by the reconstructing means with respect to adjacent cumulative contribution rate pairs, the lower-order reproduced face image Difference calculation means for generating at least one of a bright difference image from which dark components have been removed and a dark difference image from which components brighter than the lower-order reproduced face image have been removed for each pair of adjacent cumulative contribution rates When,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. Representative value calculating means for calculating
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Cumulative value calculating means for calculating at least one of dark component cumulative values,
A face image analyzing apparatus.
前記累積値算出手段は、50%より大きい所定下限値から100%未満の所定上限値までの前記累積寄与率の範囲で、前記明成分累積値及び前記暗成分累積値を得る、
請求項1に記載の顔画像分析装置。
The cumulative value calculation means obtains the light component cumulative value and the dark component cumulative value within a range of the cumulative contribution ratio from a predetermined lower limit value greater than 50% to a predetermined upper limit value less than 100%.
The face image analysis apparatus according to claim 1.
前記所定下限値は68%以上であり、前記所定上限値は98%以下であり、累積寄与率の前記所定精度は3%である、
請求項2に記載の顔画像分析装置。
The predetermined lower limit is 68% or more, the predetermined upper limit is 98% or less, and the predetermined accuracy of the cumulative contribution rate is 3%.
The face image analysis apparatus according to claim 2.
前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の群を取得する基準取得手段と、
累積寄与率を示す第1軸と前記明成分累積値を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについての前記累積値算出手段により算出された明成分累積値及び前記基準取得手段により取得される明成分累積値が重畳的にプロットされた明成分グラフ、及び、累積寄与率を示す第1軸と前記暗成分累積値を示す第2軸とを含む座標に、前記隣接する累積寄与率の各ペアについての前記累積値算出手段により算出された暗成分累積値及び前記基準取得手段により取得される暗成分累積値が重畳的にプロットされた暗成分グラフの少なくとも一つを形成するためのデータを生成する第1情報生成手段と、
を更に備える請求項3に記載の顔画像分析装置。
Reference acquisition means for acquiring a group of light component accumulated values and dark component accumulated values for each pair of the adjacent accumulated contribution rates corresponding to a reference face image for comparison with the analysis target face image;
The light component cumulative value calculated by the cumulative value calculation means for each pair of the adjacent cumulative contribution rates on the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the bright component cumulative value, and The light component graph obtained by superimposing the light component cumulative value acquired by the reference acquisition unit, and the coordinates including the first axis indicating the cumulative contribution rate and the second axis indicating the dark component cumulative value, At least one of the dark component graph in which the dark component accumulated value calculated by the accumulated value calculating unit and the dark component accumulated value acquired by the reference acquiring unit for each pair of the adjacent accumulated contribution rates are plotted in a superimposed manner. First information generating means for generating data for forming one;
The face image analyzing apparatus according to claim 3, further comprising:
前記分析対象顔画像と比較するための基準顔画像に対応する、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値の少なくとも一方の群を取得する基準取得手段と、
前記隣接する累積寄与率の各ペアについて、前記基準取得手段により取得される明成分累積値と前記累積値算出手段により算出される明成分累積値との差分、及び、前記基準取得手段により取得される暗成分累積値と前記累積値算出手段により算出される暗成分累積値との差分の少なくとも一方をそれぞれ算出する比較手段と、
を更に備える請求項1から4のいずれか1項に記載の顔画像分析装置。
Reference acquisition means for acquiring at least one group of a light component cumulative value and a dark component cumulative value for each pair of the adjacent cumulative contribution ratios corresponding to a reference face image for comparison with the analysis target face image;
For each pair of adjacent cumulative contribution ratios, the difference between the bright component accumulated value acquired by the reference acquiring unit and the bright component accumulated value calculated by the accumulated value calculating unit, and acquired by the reference acquiring unit. Comparing means for calculating at least one of the differences between the dark component accumulated value and the dark component accumulated value calculated by the accumulated value calculating means,
The face image analysis apparatus according to any one of claims 1 to 4, further comprising:
累積寄与率を示す第1軸と、前記比較手段により算出される差分を示す第2軸とを含む座標に、前記比較手段により算出される、前記隣接する累積寄与率の各ペアについての明成分累積値の差分がプロットされた明成分差分グラフ、及び、前記比較手段により算出される、前記隣接する累積寄与率の各ペアについての暗成分累積値の差分がプロットされた暗成分差分グラフ、並びに、前記明成分累積値に関する差分を示す第1軸と前記暗成分累積値に関する差分を示す第2軸とを含む座標に、前記比較手段により算出された、前記隣接する累積寄与率の各ペアについての明成分累積値及び暗成分累積値に関する差分がプロットされた比較グラフの少なくとも1つを形成するためのデータを生成する第2情報生成手段、
を更に備える請求項5に記載の顔画像分析装置。
A bright component for each pair of the adjacent cumulative contribution ratios calculated by the comparison means at coordinates including a first axis indicating the cumulative contribution ratio and a second axis indicating the difference calculated by the comparison means. A bright component difference graph in which a difference in cumulative values is plotted, a dark component difference graph in which a difference in dark component cumulative values for each pair of adjacent cumulative contribution rates calculated by the comparison unit is plotted, and For each pair of the adjacent cumulative contribution ratios calculated by the comparison means at coordinates including a first axis indicating a difference regarding the light component cumulative value and a second axis indicating a difference regarding the dark component cumulative value. Second information generating means for generating data for forming at least one of comparison graphs in which differences regarding the light component accumulated value and the dark component accumulated value are plotted;
The face image analyzing apparatus according to claim 5, further comprising:
前記隣接する累積寄与率のいずれか1つのペアについて前記比較手段により算出される明成分累積値及び暗成分累積値の少なくとも一方に関する差分が示す位置の原点からの距離を算出し、該算出された距離に基づいて、前記基準顔画像に写る顔を基準とした、前記分析対象顔画像に写る顔の質感分析情報を生成する分析情報生成手段、
を更に備える請求項5又は6に記載の顔画像分析装置。
The distance from the origin of the position indicated by the difference related to at least one of the light component cumulative value and the dark component cumulative value calculated by the comparison unit for any one of the adjacent cumulative contribution ratios is calculated, and the calculated Analysis information generating means for generating texture analysis information of a face shown in the analysis target face image based on a distance based on a face shown in the reference face image;
The face image analyzing apparatus according to claim 5 or 6, further comprising:
少なくとも1つのコンピュータが、
形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得し、
分析対象顔画像の形状を規格化し、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出し、
前記算出される各基底係数及び前記取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成し、
隣接する累積寄与率のペアに関し生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成し、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出し、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する、
ことを含む顔画像分析方法。
At least one computer
Obtaining average face image information of a plurality of sample face images whose shapes are standardized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
Standardize the shape of the face image to be analyzed,
By performing principal component analysis on the analysis target face image whose shape is normalized, the basis coefficients of the respective basis functions for the analysis target face image are calculated,
Based on each of the calculated basis coefficients and the acquired plurality of basis functions and average face image information, each reproduced face image corresponding to each of the plurality of cumulative contribution ratios of predetermined accuracy is generated,
By calculating the difference in brightness information between the lower-order reproduced face image and the higher-order reproduced face image generated for adjacent cumulative contribution ratio pairs, darker components than the lower-order reproduced face image are removed. Generated at least one of the bright difference image and the dark difference image from which a brighter component is removed than the low-order reproduction face image is generated for each pair of adjacent cumulative contribution rates,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. For each
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Calculating at least one of the dark component cumulative values,
Face image analysis method including
少なくとも1つのコンピュータに、
形状が規格化された複数のサンプル顔画像の平均顔画像情報、及び、該複数のサンプル顔画像に対する主成分分析により得られる複数の基底関数を取得するサンプル取得手段と、
形状が規格化された分析対象顔画像を主成分分析することにより、該分析対象顔画像のための前記各基底関数の基底係数をそれぞれ算出する主成分分析手段と、
前記主成分分析手段により算出される各基底係数及び前記サンプル取得手段により取得される複数の基底関数及び平均顔画像情報に基づいて、所定精度の複数次の各累積寄与率に対応する各再現顔画像をそれぞれ生成する再構成手段と、
隣接する累積寄与率のペアに関し前記再構成手段により生成された低次側再現顔画像と高次側再現顔画像との間の明暗情報の差分を算出することにより、低次側再現顔画像よりも暗い成分が除去された明差分画像、及び、低次側再現顔画像よりも明るい成分が除去された暗差分画像の少なくとも一方を、隣接する累積寄与率の各ペアについてそれぞれ生成する差分算出手段と、
前記明差分画像及び前記暗差分画像における各色情報から明成分の強さを示す明成分代表値及び暗成分の強さを示す暗成分代表値の少なくとも一方を、前記隣接する累積寄与率の各ペアについてそれぞれ算出する代表値算出手段と、
前記隣接する累積寄与率の各ペアに関する明成分代表値及び暗成分代表値の少なくとも一方を累積寄与率の昇順にそれぞれ累積することにより、前記隣接する累積寄与率の各ペアについて明成分累積値及び暗成分累積値の少なくとも一方をそれぞれ算出する累積値算出手段と、
を実現させるプログラム。
On at least one computer,
Sample acquisition means for acquiring average face image information of a plurality of sample face images whose shapes are normalized, and a plurality of basis functions obtained by principal component analysis on the plurality of sample face images;
A principal component analysis means for calculating a basis coefficient of each basis function for the analysis target face image by performing principal component analysis on the analysis target face image whose shape is normalized;
Based on each basis coefficient calculated by the principal component analysis means and a plurality of basis functions and average face image information acquired by the sample acquisition means, each reproduction face corresponding to each of the plurality of cumulative contribution ratios of a predetermined accuracy Reconstruction means for generating each image;
By calculating the difference in light and dark information between the lower-order reproduced face image and the higher-order reproduced face image generated by the reconstructing means with respect to adjacent cumulative contribution rate pairs, the lower-order reproduced face image Difference calculation means for generating at least one of a bright difference image from which dark components have been removed and a dark difference image from which components brighter than the lower-order reproduced face image have been removed for each pair of adjacent cumulative contribution rates When,
At least one of a light component representative value indicating the intensity of the light component and a dark component representative value indicating the intensity of the dark component from each color information in the light difference image and the dark difference image is set to each pair of the adjacent cumulative contribution ratios. Representative value calculating means for calculating
By accumulating at least one of a light component representative value and a dark component representative value for each pair of adjacent cumulative contribution rates in ascending order of cumulative contribution rates, a light component cumulative value for each pair of adjacent cumulative contribution rates and Cumulative value calculating means for calculating at least one of dark component cumulative values,
A program that realizes
JP2012244698A 2012-11-06 2012-11-06 Face image analyzing apparatus and face image analyzing method Active JP6008698B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244698A JP6008698B2 (en) 2012-11-06 2012-11-06 Face image analyzing apparatus and face image analyzing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244698A JP6008698B2 (en) 2012-11-06 2012-11-06 Face image analyzing apparatus and face image analyzing method

Publications (2)

Publication Number Publication Date
JP2014093043A true JP2014093043A (en) 2014-05-19
JP6008698B2 JP6008698B2 (en) 2016-10-19

Family

ID=50937048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244698A Active JP6008698B2 (en) 2012-11-06 2012-11-06 Face image analyzing apparatus and face image analyzing method

Country Status (1)

Country Link
JP (1) JP6008698B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056980A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation device, skin evaluation method, and skin evaluation program
JP2017113140A (en) * 2015-12-22 2017-06-29 花王株式会社 Skin condition evaluation method
WO2018123165A1 (en) * 2016-12-28 2018-07-05 パナソニックIpマネジメント株式会社 Makeup item presenting system, makeup item presenting method, and makeup item presenting server
CN111784658A (en) * 2020-06-29 2020-10-16 厦门市美亚柏科信息股份有限公司 Quality analysis method and system for face image
JP2020177615A (en) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device
JP2021121328A (en) * 2016-06-02 2021-08-26 ポーラ化成工業株式会社 Skin condition discrimination method, cosmetic evaluation method, and cosmetic design method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112722A (en) * 1999-10-19 2001-04-24 Shiseido Co Ltd Surface state analyzing method
JP2007006182A (en) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp Image processing apparatus and method therefor, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001112722A (en) * 1999-10-19 2001-04-24 Shiseido Co Ltd Surface state analyzing method
JP2007006182A (en) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp Image processing apparatus and method therefor, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10964062B2 (en) 2015-09-29 2021-03-30 Fujifilm Corporation Skin evaluation device, skin evaluation method, and skin evaluation program
WO2017056980A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation device, skin evaluation method, and skin evaluation program
CN108135346A (en) * 2015-09-29 2018-06-08 富士胶片株式会社 Abrasive article, nonwoven abrasive article and skin evaluation program
JP2017063904A (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation apparatus, skin evaluation method, and skin evaluation program
CN108135346B (en) * 2015-09-29 2021-04-20 富士胶片株式会社 Skin evaluation device, skin evaluation method, and recording medium
JP2017113140A (en) * 2015-12-22 2017-06-29 花王株式会社 Skin condition evaluation method
JP7213911B2 (en) 2016-06-02 2023-01-27 ポーラ化成工業株式会社 Cosmetic evaluation method and cosmetic design method
JP2021121328A (en) * 2016-06-02 2021-08-26 ポーラ化成工業株式会社 Skin condition discrimination method, cosmetic evaluation method, and cosmetic design method
WO2018123165A1 (en) * 2016-12-28 2018-07-05 パナソニックIpマネジメント株式会社 Makeup item presenting system, makeup item presenting method, and makeup item presenting server
US20200214427A1 (en) * 2016-12-28 2020-07-09 Panasonic Intellectual Property Management Co., Ltd. Makeup item presenting system, makeup item presenting method, and makeup item presenting server
JP2018109842A (en) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 Cosmetic product presentation system, cosmetic product presentation method, and cosmetic product presentation server
US11478062B2 (en) * 2016-12-28 2022-10-25 Panasonic Intellectual Property Management Co., Ltd. Makeup item presenting system, makeup item presenting method, and makeup item presenting server
JP2020177615A (en) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device
CN111784658B (en) * 2020-06-29 2022-07-01 厦门市美亚柏科信息股份有限公司 Quality analysis method and system for face image
CN111784658A (en) * 2020-06-29 2020-10-16 厦门市美亚柏科信息股份有限公司 Quality analysis method and system for face image

Also Published As

Publication number Publication date
JP6008698B2 (en) 2016-10-19

Similar Documents

Publication Publication Date Title
JP6008698B2 (en) Face image analyzing apparatus and face image analyzing method
JP6026655B2 (en) Transparency evaluation apparatus, transparency evaluation apparatus operating method, transparency evaluation method, and transparency evaluation program
TWI514291B (en) Method for age estimation
JP7248820B2 (en) Apparatus and method for determining cosmetic skin attributes
CN105120747B (en) The obscure evaluating apparatus of skin and the obscure evaluation method of skin
JP6473401B2 (en) Skin gloss evaluation apparatus, gloss evaluation method, and gloss evaluation program
JP2006142005A (en) Skin condition diagnostic system and beauty counseling system
US20080304736A1 (en) Method of estimating a visual evaluation value of skin beauty
KR20210139309A (en) Apparatus and method for visualizing cosmetic skin properties
JP5753055B2 (en) Skin image analysis apparatus and skin image analysis method
JP2007128171A (en) Face image synthesizer, face image synthesizing method and face image synthesizing program
JP2009082338A (en) Skin discrimination method using entropy
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
Choi et al. Age face simulation using aging functions on global and local features with residual images
Fan et al. An automated estimator of image visual realism based on human cognition
JP2013212177A (en) Image analysis method, image analyzer, and image analysis program
JP2006061170A (en) Discrimination method for skin
JP2012008617A (en) Face image evaluation method, face evaluation method and image processing device
Malik et al. Novel techniques for enhancement and segmentation of acne vulgaris lesions
JP2007252892A (en) Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
CN107847136B (en) Elastic feeling evaluation device, elastic feeling evaluation method, and elastic feeling evaluation program
CN108135346B (en) Skin evaluation device, skin evaluation method, and recording medium
JP2021121328A (en) Skin condition discrimination method, cosmetic evaluation method, and cosmetic design method
JP7429683B2 (en) Method for determining temporal change characteristics of facial surface texture
JP2017158921A (en) Skin condition evaluation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160913

R151 Written notification of patent or utility model registration

Ref document number: 6008698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250