JP5650012B2 - Facial image processing method, beauty counseling method, and facial image processing apparatus - Google Patents

Facial image processing method, beauty counseling method, and facial image processing apparatus Download PDF

Info

Publication number
JP5650012B2
JP5650012B2 JP2011040681A JP2011040681A JP5650012B2 JP 5650012 B2 JP5650012 B2 JP 5650012B2 JP 2011040681 A JP2011040681 A JP 2011040681A JP 2011040681 A JP2011040681 A JP 2011040681A JP 5650012 B2 JP5650012 B2 JP 5650012B2
Authority
JP
Japan
Prior art keywords
change
image
face
texture
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011040681A
Other languages
Japanese (ja)
Other versions
JP2012178045A (en
Inventor
延偉 陳
延偉 陳
卓馬 寺田
卓馬 寺田
崇訓 五十嵐
崇訓 五十嵐
啓輔 中尾
啓輔 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2011040681A priority Critical patent/JP5650012B2/en
Publication of JP2012178045A publication Critical patent/JP2012178045A/en
Application granted granted Critical
Publication of JP5650012B2 publication Critical patent/JP5650012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顔画像処理方法、美容カウンセリング方法および顔画像処理装置に関する。   The present invention relates to a face image processing method, a beauty counseling method, and a face image processing apparatus.

顔画像を種々に変化させる画像処理方法としてワーピングおよびモーフィングが提案されている。ワーピングは画像を幾何学的に変換して一部の箇所を変化させる手法であり、モーフィングは元の画像と別の画像との中間画像を生成して元画像を徐々に変化させていく手法である。   Warping and morphing have been proposed as image processing methods for changing face images in various ways. Warping is a technique in which an image is transformed geometrically to change some parts, and morphing is a technique in which an intermediate image between an original image and another image is generated and the original image is gradually changed. is there.

特許文献1には、被験者の顔画像における肌色の分布を評価するにあたり、被験者の顔を平均顔等の標準的な顔に変形(ワーピング)させて顔形状の特徴の影響を除外したうえで、顔の色相を主成分分析する肌色評価方法が記載されている。この肌色評価方法では、顔画像を数十個の領域に分割して領域ごとに色相の平均値を求め、かかる色相の分布の傾向を主成分分析による統計処理に基づいて評価している。   In Patent Document 1, in evaluating the skin color distribution in the face image of the subject, the subject's face is transformed into a standard face such as an average face (warping), and the influence of facial shape characteristics is excluded. A skin color evaluation method for principal component analysis of the hue of a face is described. In this skin color evaluation method, a face image is divided into several tens of regions, an average value of hues is obtained for each region, and the tendency of the distribution of hues is evaluated based on statistical processing by principal component analysis.

また、元の顔画像を他人の顔画像に連続的に変化させるモーフィングが、映像コンテンツの作成などにしばしば用いられている(特許文献2を参照)。   Also, morphing that continuously changes an original face image into another person's face image is often used for creating video content (see Patent Document 2).

非特許文献1には、多数のサンプル画像を含む顔画像データベースを用いて被験者の顔画像を統計処理することにより、被験者の顔画像における特徴点を移動させて顔の魅力度(attractiveness)を向上させるワーピングの手法が記載されている。この手法では、顔画像データベースより、予め官能評価とSupport Vector Regression(SVR)のアルゴリズムを用いて推定された美容スコア(beauty score)が高く、かつ被験者の顔の特徴点の位置の傾向に近接するサンプル画像をランク付けして上位より複数枚を抽出して、これを母集団とする。非特許文献1では、被験者の顔の特徴点を母集団の平均顔の特徴点に移動させることで、被験者の顔の魅力度(attractiveness)が向上するとしている。   Non-Patent Document 1 improves the attractiveness of the face by moving feature points in the face image of the subject by statistically processing the face image of the subject using a face image database including a large number of sample images. A warping technique is described. In this method, the beauty score estimated in advance using the sensory evaluation and Support Vector Regression (SVR) algorithm is higher than the face image database, and it is close to the tendency of the facial feature point position of the subject. Sample images are ranked and a plurality of images are extracted from the top, and this is used as a population. According to Non-Patent Document 1, the attractiveness of the subject's face is improved by moving the facial feature point of the subject to the average facial feature point of the population.

特開2009−169758号公報JP 2009-169758 A 特開2007−300562号公報JP 2007-300562 A

Tommer Leyvand, Daniel Cohen-Or, Gideon Dror and Dani Lischinski, 「Data-Driven Enhancement of Facial Attractiveness」, Proceedings of ACM SIGGRAPH 2008, vol.27, no.3, 2008Tommer Leyvand, Daniel Cohen-Or, Gideon Dror and Dani Lischinski, `` Data-Driven Enhancement of Facial Attractiveness '', Proceedings of ACM SIGGRAPH 2008, vol.27, no.3, 2008

顔の見た目の印象(以下、顔印象)を仮想的に変化させる画像処理技術は、産業上の種々の利用の可能性をもたらす。一例として、化粧料や美容施術の効果を定量的に評価して商品やサービスの設計開発のためのツールとして用いることができる。また、化粧と美容整形との学際領域における研究ツールとして、さらに「顔」をテーマにした新たなエンターテインメントの実現のための技術ツールとしても利用することが期待される。   An image processing technique that virtually changes the appearance of a face (hereinafter referred to as “face impression”) provides various industrial uses. As an example, the effects of cosmetics and beauty treatments can be quantitatively evaluated and used as a tool for designing and developing products and services. In addition, it is expected to be used as a research tool in the interdisciplinary field of makeup and cosmetic surgery, and also as a technical tool for the realization of new entertainment with the theme of “face”.

しかしながら、上記した従来の手法は、母集団の平均顔や他人の顔など、目的とする顔や顔形状に向けて被験者の顔画像を単に変換するものであるため、顔印象の決定因子に関する研究を深化させたり顔印象を自在に変化させたりする技術を提供するものではなかった。   However, the above-mentioned conventional methods simply transform the subject's face image toward the target face or face shape, such as the average face of the population or the face of another person, so research on the determinants of face impression It did not provide technology for deepening the face or changing the facial impression freely.

本発明は上述のような課題に鑑みてなされたものであり、顔印象の決定因子を知得することのできる顔画像処理技術、およびかかる顔画像処理技術を用いた美容カウンセリング方法を提供するものである。   The present invention has been made in view of the above-described problems, and provides a face image processing technique capable of obtaining a determinant of face impression, and a beauty counseling method using the face image processing technique. is there.

本発明によれば顔の少なくとも一部が撮像された顔画像に関して、前記顔の形状、テクスチャまたは色より選択(重複選択を含む)された少なくとも第一の変化軸および第二の変化軸についてそれぞれ主成分分析して複数次の基底ベクトルの重み係数を算出し、前記第一の変化軸にかかる前記重み係数を変更した第一変化画像と、前記第二の変化軸にかかる前記重み係数を変更した第二変化画像と、を生成し、前記第一変化画像と前記第二変化画像とを互いに対比して出力することを特徴とする顔画像処理方法が提供される。   According to the present invention, at least a first change axis and a second change axis selected (including overlapping selection) from the shape, texture, or color of the face with respect to a face image obtained by capturing at least a part of the face, respectively. A principal component analysis is performed to calculate a weight coefficient of a plurality of basis vectors, the first change image in which the weight coefficient applied to the first change axis is changed, and the weight coefficient applied to the second change axis are changed. A face image processing method is provided, wherein the second change image is generated and the first change image and the second change image are output in comparison with each other.

また本発明によれば、上記の顔画像処理方法を用いた美容カウンセリング方法であって、化粧料の塗布または美容施術の適用による顔の形状、テクスチャまたは色の変化と、前記第一変化画像または前記第二変化画像と、を対応づけて出力することを特徴とする美容カウンセリング方法が提供される。   Further, according to the present invention, there is provided a beauty counseling method using the face image processing method described above, and a change in the shape, texture or color of the face due to the application of cosmetics or the application of cosmetic treatment, and the first change image or A beauty counseling method is provided, wherein the second change image is output in association with the second change image.

また本発明によれば、顔の少なくとも一部が撮像された顔画像に関して、前記顔の形状、テクスチャまたは色より選択(重複選択を含む)された少なくとも第一の変化軸および第二の変化軸についてそれぞれ主成分分析して複数次の基底ベクトルの重み係数を算出する主成分分析手段と、前記第一の変化軸にかかる前記重み係数を変更した第一変化画像と、前記第二の変化軸にかかる前記重み係数を変更した第二変化画像と、を生成する変化画像生成手段と、前記第一変化画像と前記第二変化画像とを互いに対比して出力する画像出力手段と、を含む顔画像処理装置が提供される。   Further, according to the present invention, at least a first change axis and a second change axis selected (including overlapping selection) from the shape, texture, or color of the face with respect to a face image obtained by capturing at least a part of the face. Principal component analysis means for calculating a weight coefficient of a plurality of basis vectors by performing principal component analysis for each, a first change image in which the weight coefficient applied to the first change axis is changed, and the second change axis A change image generation means for generating a second change image in which the weighting coefficient is changed, and an image output means for outputting the first change image and the second change image in comparison with each other. An image processing apparatus is provided.

ここで、顔の形状とは、顔の輪郭、および目・鼻・口などの特徴部位の位置・大きさ・範囲のほか、眼鏡などの装着物の有無および形状を含む。また、顔画像のテクスチャとは顔の表面の質感を表す画像パターンをいう。顔の色とは、顔全体または顔の一部領域における肌の平均的な明度、彩度または色相の少なくとも一つをいう。
変化軸とは、顔画像(元画像)における顔の形状、テクスチャまたは色(以下、これらを併せて「決定因子」という)を変化させる方向性を意味する。変化軸は、決定因子の選択と、顔画像の主成分分析に用いられる母集団とで決定される。
Here, the face shape includes the face outline and the position, size, and range of characteristic parts such as eyes, nose, and mouth, as well as the presence and shape of a wearing object such as glasses. Also, the texture of the face image refers to an image pattern that represents the texture of the face surface. The face color means at least one of the average brightness, saturation, or hue of the skin in the entire face or a partial area of the face.
The change axis means the directionality of changing the shape, texture, or color of the face (hereinafter collectively referred to as “determinant”) in the face image (original image). The change axis is determined by selection of a determinant and a population used for principal component analysis of face images.

上記発明によれば、決定因子より選択された複数の変化軸について個別に基底ベクトルの重み係数(固有値)を変化させた画像が対比される。これにより、選択された変化軸が顔印象に与える影響度合いを個別に可視化することができる。このため、たとえば化粧料や美容施術等によって被験者の顔印象を所望に変化させるに際して、決定因子の適切な選択が可能となる。   According to the above invention, the images in which the weighting coefficients (eigenvalues) of the basis vectors are individually changed for the plurality of change axes selected by the determinant are compared. Thereby, the degree of influence of the selected change axis on the face impression can be individually visualized. For this reason, when changing a test subject's facial impression as desired, for example by cosmetics or cosmetic treatment, the determinant can be appropriately selected.

本発明によれば、顔印象の決定因子を知得することのできる顔画像処理技術、およびかかる顔画像処理技術を用いた美容カウンセリング方法が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the face image processing technique which can acquire the determinant of face impression, and the beauty counseling method using this face image processing technique are provided.

第一実施形態にかかる顔画像処理方法のフローチャートである。It is a flowchart of the face image processing method concerning a first embodiment. 第一実施形態の顔画像処理装置のブロック図である。It is a block diagram of the face image processing device of the first embodiment. 顔形状テーブルの例を示す図である。It is a figure which shows the example of a face shape table. 第一変化画像と第二変化画像と重畳変化画像とを対比して出力する状態を示す図である。It is a figure which shows the state which compares and outputs a 1st change image, a 2nd change image, and a superimposition change image. テクスチャテーブルの例を示す図である。It is a figure which shows the example of a texture table. 色テーブルの例を示す図である。It is a figure which shows the example of a color table. 化粧質感テーブルの例を示す図である。It is a figure which shows the example of a makeup | decoration texture table. 第三実施形態の顔画像処理装置のブロック図である。It is a block diagram of the face image processing apparatus of 3rd embodiment. 第三実施形態において第一変化画像を生成する変化画像生成工程の詳細を示すフローチャートである。It is a flowchart which shows the detail of the change image production | generation process which produces | generates a 1st change image in 3rd embodiment. 第三実施形態において第二変化画像を生成する変化画像生成工程の詳細を示すフローチャートである。It is a flowchart which shows the detail of the change image production | generation process which produces | generates a 2nd change image in 3rd embodiment. 第三実施形態において第一変化画像を生成する変化画像生成工程の変形例の詳細を示すフローチャートである。It is a flowchart which shows the detail of the modification of the change image production | generation process which produces | generates a 1st change image in 3rd embodiment. 美容手段選択テーブルの例を示す図である。It is a figure which shows the example of a beauty means selection table.

<第一実施形態>
はじめに、本発明の第一実施形態にかかる顔画像処理方法の概要を説明する。
図1は、本実施形態の顔画像処理方法(以下、本方法という場合がある)のフローチャートである。図2は、本方法を実現する本実施形態の顔画像処理装置100のブロック図である。
<First embodiment>
First, the outline of the face image processing method according to the first embodiment of the present invention will be described.
FIG. 1 is a flowchart of a face image processing method (hereinafter also referred to as the present method) of the present embodiment. FIG. 2 is a block diagram of the face image processing apparatus 100 of the present embodiment that implements the method.

本方法は、顔画像取得工程S10、主成分分析工程S40、変化画像生成工程S50および出力工程S70を含む。   The method includes a face image acquisition step S10, a principal component analysis step S40, a change image generation step S50, and an output step S70.

本実施形態の顔画像処理装置100は、コンピュータプログラムが実装されたコンピュータ装置に、必要に応じて各種デバイスが接続されて構築されている。顔画像処理装置100の各種の構成要素は、その機能を実現するように形成されていればよく、例えば、所定の機能を発揮する専用のハードウェア、所定の機能がコンピュータプログラムにより付与されたデータ処理装置、コンピュータプログラムによりデータ処理装置に実現された所定の機能、これらの任意の組み合わせ、等として実現することができる。   The face image processing apparatus 100 according to the present embodiment is constructed by connecting various devices to a computer apparatus in which a computer program is installed as necessary. The various constituent elements of the face image processing apparatus 100 only have to be formed so as to realize their functions. For example, dedicated hardware that exhibits a predetermined function, data provided with a predetermined function by a computer program It can be realized as a processing device, a predetermined function realized in the data processing device by a computer program, an arbitrary combination thereof, or the like.

また、顔画像処理装置100の各種の構成要素は、個々に独立した存在である必要はなく、複数の構成要素が一個の要素として形成されていること、一つの構成要素が複数の要素で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。   The various components of the face image processing apparatus 100 do not have to be independent of each other, but a plurality of components are formed as a single element, and a single component is formed of a plurality of elements. That a certain component is a part of another component, a part of a certain component overlaps a part of another component, and the like.

本実施形態の顔画像処理装置100は、撮像部10、主成分分析部40、変化画像生成部50および出力部70を含む。これらはバス95で互いに接続されている。   The face image processing apparatus 100 of the present embodiment includes an imaging unit 10, a principal component analysis unit 40, a change image generation unit 50, and an output unit 70. These are connected to each other by a bus 95.

顔画像取得工程S10では、撮像部10は人間の顔の少なくとも一部が撮像された顔画像(元画像OIM)を取得する。顔画像は、顔画像処理装置100を操作するユーザの顔の画像でもよく、または著名人を含む当該ユーザからみた他人の顔の画像でもよい。
本実施形態では撮像部10としてデジタルカメラを例示する。撮像部10は、顔画像処理装置100のユーザを被験者として、その顔をデジタルデータとして撮像した顔画像データを取得する。被験者は素顔でもよく、または化粧を施した顔(化粧顔)でもよい。以下、本方法では被験者の素顔の顔画像を顔画像データとする場合を例示する。
In the face image acquisition step S10, the imaging unit 10 acquires a face image (original image OIM) obtained by capturing at least a part of a human face. The face image may be an image of the face of the user who operates the face image processing apparatus 100, or may be an image of the face of another person viewed from the user including a celebrity.
In the present embodiment, a digital camera is illustrated as the imaging unit 10. The imaging unit 10 acquires face image data obtained by capturing the face as digital data with the user of the face image processing apparatus 100 as a subject. The subject may be a natural face or a face with makeup (makeup face). Hereinafter, in this method, a case where a face image of a subject's face is used as face image data will be exemplified.

なお、本実施形態に代えて、撮像部10は、著名人を含む任意の人物に関する顔画像データを、記憶媒体またはネットワーク経由で取得する受信装置でもよい。   Instead of the present embodiment, the imaging unit 10 may be a receiving device that acquires face image data related to an arbitrary person including a celebrity via a storage medium or a network.

主成分分析工程S40では、主成分分析部40は、元画像OIMに関して、顔の形状、テクスチャまたは色より選択(重複選択を含む)された少なくとも第一の変化軸AX1および第二の変化軸AX2についてそれぞれ主成分分析して複数次の基底ベクトルe1,iおよびe2,j(i、jはそれぞれ次数を表す自然数。以下同様。)の重み係数b1,iおよびb2,jを算出する。
以下、基底ベクトルe1,iおよびe2,jをあわせて基底ベクトルeと表記する場合がある。同様に、重み係数b1,iおよびb2,jをあわせて重み係数bと表記する場合がある。
In the principal component analysis step S40, the principal component analysis unit 40 selects at least the first change axis AX 1 and the second change axis selected from the face shape, texture, or color (including overlapping selection) with respect to the original image OIM. AX 2 is subjected to principal component analysis , and weight coefficients b 1, i and b 2, j of multi-order basis vectors e 1, i and e 2, j (where i and j are natural numbers representing degrees, respectively). Is calculated.
Hereinafter, the basis vectors e 1, i and e 2, j may be collectively referred to as a basis vector e. Similarly, the weighting factors b 1, i and b 2, j may be collectively expressed as a weighting factor b.

図1に示すように、本方法ではステップS60の条件分岐により複数の変化軸を設定することができる。そして、各回の変化軸設定工程S30で設定された変化軸にかかる基底ベクトルeごとの重み係数bを主成分分析工程S40にてそれぞれ算出する。
言い換えると、一回目の主成分分析工程S40では、変化軸設定工程S30で選択された決定因子(たとえば顔形状)と、母集団生成工程S34で生成された母集団と、で決まる第一の変化軸AX1に従って元画像OIMを主成分分析して、基底ベクトルe1,iごとの重み係数b1,iを算出する。変化画像生成工程S50では、この重み係数b1,iを変化させて画像再構成することにより第一変化画像IM1を生成する。
As shown in FIG. 1, in this method, a plurality of change axes can be set by conditional branching in step S60. Then, the weighting factor b for each base vector e applied to the change axis set in each change axis setting step S30 is calculated in the principal component analysis step S40.
In other words, in the first principal component analysis step S40, the first change determined by the determinant (for example, face shape) selected in the change axis setting step S30 and the population generated in the population generation step S34. A principal component analysis is performed on the original image OIM according to the axis AX 1 to calculate a weight coefficient b 1, i for each base vector e 1, i . In the change image generation step S50, the first change image IM 1 is generated by reconstructing the image by changing the weight coefficient b 1, i .

他の変化軸による画像変化を更に行うことが選択されると(ステップS60:YES)、二回目の変化軸設定工程S30では決定因子が選択される。ここで選択される決定因子は、一回目と同じもの(たとえば顔形状)でもよい。母集団生成工程S34では、主成分分析のための母集団が生成される。これにより、第二の変化軸AX2が設定される。なお、二回目の決定因子が一回目と同じである場合には、母集団を構成するサンプル画像SIMの少なくとも一部が一回目の母集団と異なるものとする。一回目と二回目の決定因子が異なる場合には、母集団を構成するサンプル画像SIMが互いに完全に同一であってもよい。これにより、一回目と二回目の主成分分析でそれぞれ求まる重み係数b1,iが互いに異なるものとなる。
二回目の主成分分析工程S40では、設定された第二の変化軸AX2に従って元画像OIMを主成分分析して複数次の基底ベクトルe2,jにかかる重み係数b2,jを算出する。
If it is selected to further change the image based on another change axis (step S60: YES), a determinant is selected in the second change axis setting step S30. The determinant selected here may be the same as that for the first time (for example, face shape). In the population generation step S34, a population for principal component analysis is generated. As a result, the second change axis AX 2 is set. When the determinant for the second time is the same as that for the first time, at least a part of the sample image SIM constituting the population is different from the first time population. When the determinants for the first time and the second time are different, the sample images SIM constituting the population may be completely the same. As a result, the weight coefficients b 1 and i obtained in the first and second principal component analyzes are different from each other.
In the second principal component analysis step S40, principal component analysis is performed on the original image OIM in accordance with the set second change axis AX 2 to calculate weighting coefficients b 2, j relating to the plural-order basis vectors e 2, j. .

変化画像生成工程S50では、変化画像生成部50(図2を参照)は、第一の変化軸AX1にかかる重み係数b1,iを変更した第一変化画像IM1と、第二の変化軸AX2にかかる重み係数b2,jを変更した第二変化画像IM2と、を生成する。ここで、重み係数b1,i,b2,jを変更するとは、複数次の重み係数の一部または全部を増加または減少させることをいう。重み係数b1,i,b2,jを減少させるとは、当該重み係数の絶対値を小さくすることをいい、当該重み係数をゼロにすることを含む。変化画像生成工程S50では、重み係数b1,iを変更して画像再構成した第一変化画像IM1と、重み係数b2,jを変更して画像再構成した第二変化画像IM2とを生成する。 In the change image generation step S50, the change image generation unit 50 (see FIG. 2) uses the first change image IM 1 in which the weighting factor b 1, i applied to the first change axis AX 1 is changed, and the second change a second change image IM 2 changing the weighting coefficients b 2, j according to the axis AX 2, to produce a. Here, changing the weight coefficients b 1, i , b 2, j means increasing or decreasing part or all of the plurality of weight coefficients. Decreasing the weight coefficients b 1, i and b 2, j means reducing the absolute value of the weight coefficient, and includes making the weight coefficient zero. In the change image generation step S50, the first change image IM 1 reconstructed by changing the weight coefficient b 1, i, and the second change image IM 2 reconstructed by changing the weight coefficient b 2, j Is generated.

出力工程S70では、出力部70は、第一変化画像IM1と第二変化画像IM2とを互いに対比して出力する。ここで、複数の画像を互いに対比して出力するとは、複数の画像を同時または個別に、同一または異なる画像出力手段で出力することを意味する。具体的には、同一の表示ディスプレイ装置に複数の画像を近接させて表示出力する態様や、同一の表示ディスプレイ装置上でまたは隣接配置された表示ディスプレイ装置で交互に表示出力する態様、複数の画像を同一または異なる用紙に印刷出力する態様などを一例として挙げることができる。 In the output step S70, the output unit 70 outputs the first change image IM 1 and the second change image IM 2 in comparison with each other. Here, outputting a plurality of images in contrast to each other means outputting the plurality of images simultaneously or individually by the same or different image output means. Specifically, a mode in which a plurality of images are displayed in close proximity to the same display device, a mode in which images are alternately displayed on a same display device or a display device arranged adjacent thereto, a plurality of images As an example, a mode of printing and printing on the same or different paper can be given.

以下、本方法および本実施形態の顔画像処理装置100について、より具体的に説明する。   Hereinafter, the method and the face image processing apparatus 100 of the present embodiment will be described more specifically.

図2に示すように、顔画像処理装置100は、元画像OIMの顔画像データに規格化処理を施して規格化画像を生成する規格化部12を備えている。規格化部12は、元画像OIMから目・鼻・口・耳などの特徴点を数十点程度取得し、その顔形状を規格化する(図1:画像規格化工程S20)。   As illustrated in FIG. 2, the face image processing apparatus 100 includes a normalization unit 12 that performs a normalization process on the face image data of the original image OIM to generate a standardized image. The normalization unit 12 acquires about tens of feature points such as eyes, nose, mouth, and ear from the original image OIM, and normalizes the face shape (FIG. 1: image normalization step S20).

画像規格化工程S20は、取得した元画像OIMに正規化などの規格化処理を施して、被験者の顔の形状的な特徴(毛髪の生えぎわ、頬または顎などの輪郭、眉、目、鼻など)を捨象した規格化画像を生成する工程である。規格化処理は、市販の顔画像合成システム(例えば、株式会社国際電気通信基礎研究所、Futon)を用いて行うことができる。   In the image normalization step S20, the acquired original image OIM is subjected to normalization processing such as normalization, and the shape characteristics of the subject's face (hair contours of hair, cheeks or jaws, eyebrows, eyes, nose, etc.) Etc.) is generated. The normalization process can be performed using a commercially available face image synthesis system (for example, International Telecommunications Research Institute, Futon).

顔画像処理装置100は、複数のサンプル画像SIMを格納する顔画像データベース90と、サンプル画像SIMを抽出する条件の入力を受け付ける条件入力部20と、受け付けた条件に従って顔画像データベース90からサンプル画像SIMを抽出して母集団を生成する抽出部60と、をさらに含んでいる。
主成分分析部40は、この母集団から複数次の基底ベクトルeを算出し、算出された基底ベクトルにかかる重み係数bを顔画像(元画像OIM)より算出する。
The face image processing apparatus 100 includes a face image database 90 that stores a plurality of sample images SIM, a condition input unit 20 that receives input of conditions for extracting the sample images SIM, and the sample image SIM from the face image database 90 according to the received conditions. And an extraction unit 60 for generating a population by extracting.
The principal component analysis unit 40 calculates a multi-order basis vector e from the population, and calculates a weighting factor b applied to the calculated basis vector from the face image (original image OIM).

なお、元画像OIMの規格化処理は、顔画像データベース90に記憶されるサンプル画像SIMに対しても施されている。すなわち、顔画像データベース90に格納された複数枚のサンプル画像SIMは、目、鼻および口の位置が規格化されている。そして、被験者の元画像OIMとサンプル画像SIMとは同様に規格化されている。   Note that the normalization process of the original image OIM is also performed on the sample image SIM stored in the face image database 90. That is, the positions of the eyes, nose and mouth of the plurality of sample images SIM stored in the face image database 90 are standardized. The subject original image OIM and the sample image SIM are standardized in the same manner.

本方法では、元画像OIMを変化させる決定因子を設定する変化軸設定工程S30を行う。本方法では、決定因子を設定したのち、その決定因子を変化させる条件を入力して(条件入力工程S32)、適切なサンプル画像SIMを顔画像データベース90から抽出して母集団を生成する(母集団生成工程S34)。ここで、決定因子(顔形状)を変化させる条件は後述のように種々に設定することができるが、一例として「日本人の女性のうち魅力的な顔であると官能評価された人達の平均顔に近づける」などが挙げられる。   In this method, a change axis setting step S30 for setting a determinant for changing the original image OIM is performed. In this method, after setting a determinant, conditions for changing the determinant are input (condition input step S32), and an appropriate sample image SIM is extracted from the face image database 90 to generate a population (mother). Group generation step S34). Here, the conditions for changing the determinant (face shape) can be variously set as will be described later. As an example, “the average of people who were sensorially evaluated as attractive faces among Japanese women” "Close to the face".

本方法では、第一回目の変化軸設定工程S30において、第一の変化軸AX1にかかる決定因子として顔の形状(顔形状)を選択する場合を例に説明する。ただし本方法に代えて、第一の変化軸AX1としてテクスチャや色を選択してもよい。 In this way, in the first round of change axis setting step S30, it will be described a case of selecting a face shape (face shape) as a determinant according to the first variation axis AX 1 an example. However instead of this method, it may be selected texture and color as the first change axis AX 1.

条件入力工程S32では、主成分分析に用いるサンプル画像SIMの母集団を抽出するための属性データを、条件入力部20を用いて入力する。かかる入力は、被験者が行ってもよく、または顔画像処理装置100のオペレータが行ってもよい。ただし、一部の属性データ(たとえば図3に示す魅力度に関する属性データf3など)に関しては、常に選択されるよう顔画像処理装置100にプレフィックスされていてもよい。   In the condition input step S32, attribute data for extracting the population of the sample image SIM used for the principal component analysis is input using the condition input unit 20. Such input may be performed by the subject or may be performed by an operator of the face image processing apparatus 100. However, a part of the attribute data (for example, attribute data f3 relating to the attractiveness shown in FIG. 3) may be prefixed to the face image processing apparatus 100 so that it is always selected.

母集団生成工程S34では、抽出部60は複数のサンプル画像SIMを含む顔画像データベース90から一部のサンプル画像SIMを抽出して母集団を生成する。主成分分析工程S40では、主成分分析部40は、この母集団から複数次の基底ベクトルeを算出し、算出された基底ベクトルeにかかる重み係数b1,iを元画像OIMより算出する。 In the population generation step S34, the extraction unit 60 generates a population by extracting some sample images SIM from the face image database 90 including a plurality of sample images SIM. In the principal component analysis step S40, the principal component analysis unit 40 calculates a multi-order basis vector e from the population, and calculates the weighting factor b 1, i applied to the calculated basis vector e from the original image OIM.

主成分分析工程S40は、上記で得られた規格化画像した被験者の元画像OIM(以下、単に元画像OIMという)の決定因子(顔形状、テクスチャまたは色)を、多数のサンプル画像に共通な基底ベクトル(固有顔)の線形和に分解する演算工程である。
基底ベクトルは、予め規格化された多数のサンプル画像SIMをそれぞれラスタスキャンして得られた共分散行列の固有ベクトル解析により求められ、固有値の大きい順に並べられている。
In the principal component analysis step S40, a determinant (face shape, texture, or color) of the original image OIM (hereinafter simply referred to as the original image OIM) of the subject obtained as the normalized image obtained above is common to many sample images. This is a calculation step for decomposing the basis vector (eigenface) into a linear sum.
The basis vectors are obtained by eigenvector analysis of a covariance matrix obtained by raster scanning each of a large number of sample images SIM standardized in advance, and are arranged in descending order of eigenvalues.

元画像OIMの各画素値は、基底ベクトルeの最高次数をnとした場合、主成分分析法(PCA:principal component analysis)により下式(1)、(2)のように分解される。第一平均顔画像、第二平均顔画像とは、それぞれ選択された決定因子に関して母集団のサンプル画像SIMを平均化した顔画像である。基底ベクトルeを求めるための母集団となるサンプル画像SIMを多数用いることにより、規格化されたあらゆる顔画像(元画像OIM)を、所定の精度で下式に分解することができる。また、平均顔画像と、基底ベクトルeおよび重み係数bとを用いて元画像OIMを再構成することができる。   Each pixel value of the original image OIM is decomposed as shown in the following equations (1) and (2) by principal component analysis (PCA), where n is the highest order of the base vector e. The first average face image and the second average face image are face images obtained by averaging the sample image SIM of the population with respect to each selected determinant. By using a large number of sample images SIM as a population for obtaining the basis vector e, any standardized face image (original image OIM) can be decomposed into the following equation with a predetermined accuracy. In addition, the original image OIM can be reconstructed using the average face image, the base vector e, and the weight coefficient b.

(数1)
元画像OIM=第一平均顔画像+b1,1*第1基底ベクトルe1,1+b1,2*第2基底ベクトルe1,2+b1,3*第3基底ベクトルe1,3+・・・+b1,k*第k基底ベクトルe1,k+・・・+b1,n-1*第(n−1)基底ベクトルe1,n-1+b1,n*第n基底ベクトルe1,n (1)
(Equation 1)
Original image OIM = first average face image + b 1,1 * first basis vector e 1,1 + b 1,2 * second basis vector e 1,2 + b 1,3 * third basis vector e 1,3 +. ... + B 1, k * kth basis vector e 1, k +... + B 1, n-1 * (n-1) basis vector e 1, n-1 + b 1, n * nth basis vector e 1, n (1)

(数2)
元画像OIM=第二平均顔画像+b2,1*第1基底ベクトルe2,1+b2,2*第2基底ベクトルe2,2+b2,3*第3基底ベクトルe2,3+・・・+b2,k*第k基底ベクトルe2,k+・・・+b2,n-1*第(n−1)基底ベクトルe2,n-1+b2,n*第n基底ベクトルe2,n (2)
(Equation 2)
Original image OIM = second average face image + b 2,1 * first basis vector e 2,1 + b 2,2 * second basis vector e 2,2 + b 2,3 * third basis vector e 2,3 +. .. + b 2, k * kth basis vector e 2, k +... + B 2, n-1 * (n-1) basis vector e 2, n-1 + b 2, n * nth basis vector e 2, n (2)

なお、決定因子である顔形状、テクスチャおよび色は互いに独立して扱うことができる。いずれの決定因子に関してサンプル画像SIMの母集団を主成分分析した場合にも、各次の基底ベクトル同士は互いに直交しており、また他の決定因子の特徴が捨象された基底ベクトルが算出される。   Note that the face shape, texture, and color, which are determinants, can be handled independently of each other. When the principal component analysis is performed on the population of the sample image SIM with respect to any determinant, the respective basis vectors are orthogonal to each other, and the basis vectors in which the characteristics of other determinants are discarded are calculated. .

基底ベクトルe1,iおよびe2,jならびに元画像OIMに関する重み係数b1,iおよびb2,jは、次数ごとに対応づけられて基底記憶部92に記憶される。
なお、顔画像データベース90から抽出される可能性のあるすべての母集団に関して、予め主成分分析をおこなって基底ベクトルeを算出し、これを基底記憶部92に格納しておくことが好ましい。これにより、主成分分析工程S40においてその都度母集団から基底ベクトルeを求める必要がなく、元画像OIMに関する重み係数b1,iを迅速に算出することができる。
The basis vectors e 1, i and e 2, j and the weight coefficients b 1, i and b 2, j relating to the original image OIM are stored in the basis storage unit 92 in correspondence with each order.
Note that it is preferable to perform a principal component analysis in advance on all populations that may be extracted from the face image database 90 to calculate a basis vector e and store the basis vector e in the basis storage unit 92. Thereby, it is not necessary to obtain the basis vector e from the population each time in the principal component analysis step S40, and the weighting coefficient b 1, i relating to the original image OIM can be quickly calculated.

図3は、顔形状(決定因子)を変化させる条件を表す顔形状テーブルの例である。顔形状テーブルは、顔画像データベース90に記憶された多数のサンプル画像SIMを、顔形状の特徴に寄与すると考えられる属性によって分類したテーブルである。   FIG. 3 is an example of a face shape table showing conditions for changing the face shape (decision factor). The face shape table is a table in which a large number of sample images SIM stored in the face image database 90 are classified according to attributes that are considered to contribute to facial shape characteristics.

サンプル画像SIMには、その被撮影者にあたるサンプル提供者の属性を示す複数の属性データが付与されている。かかる属性データを一つまたは複数選択して顔画像データベース90を検索することにより、当該属性を備えるサンプル画像SIMの母集団が生成される。   The sample image SIM is provided with a plurality of attribute data indicating the attributes of the sample provider corresponding to the subject. By searching the face image database 90 by selecting one or a plurality of such attribute data, a population of sample images SIM having the attribute is generated.

変化画像生成工程S50では、顔画像データベース90から抽出された母集団に属するサンプル画像SIMの顔の形状を平均した平均顔形状に向かって顔画像(元画像OIM)をワーピング処理して第一変化画像IM1を生成する。ここで、サンプル画像SIMの平均顔形状とは、規格化された複数のサンプル画像SIMにおける目・鼻・口などの特徴点の位置を平均化したものである。 In the change image generation step S50, the face image (original image OIM) is warped toward the average face shape obtained by averaging the face shapes of the sample images SIM belonging to the population extracted from the face image database 90, and the first change is performed. An image IM 1 is generated. Here, the average face shape of the sample image SIM is obtained by averaging the positions of feature points such as eyes, nose, and mouth in a plurality of standardized sample images SIM.

具体的には、上式(1)における第一の変化軸AX1にかかる重み係数b1,iのうち所定の閾値次数kよりも高次の重み係数b1,m(m=k+1,k+2,k+3,・・・)を低減してワーピング処理を行う。閾値次数kは、顔形状の変化度に基づいて設定することができる。詳細は第三実施形態で説明する。 Specifically, the weighting coefficients of higher order than the predetermined threshold order k of the first weighting factor b 1 according to the change axis AX 1, i in the above formula (1) b 1, m ( m = k + 1, k + 2 , K + 3,...), And warping processing is performed. The threshold order k can be set based on the degree of change in face shape. Details will be described in the third embodiment.

より具体的には、元画像OIMにおける高次側で元画像OIMの特徴点の位置を移動させる。そして、特徴点を頂点とする微小要素を、区分的アフィン(Piece-wise Affine)法やBスプライン近似(B-Spline Approximation)法などの画像処理方法によって座標変換する。これにより、元画像OIMの特徴点を移動させたワーピング処理後の画像(すなわち第一変化画像IM1)が生成される。 More specifically, the position of the feature point of the original image OIM is moved on the higher order side in the original image OIM. Then, coordinates of a minute element having a feature point as a vertex are transformed by an image processing method such as a piece-wise affine method or a B-Spline approximation method. As a result, an image after the warping process in which the feature points of the original image OIM are moved (that is, the first change image IM 1 ) is generated.

なお、区分的アフィン法は特徴点を頂点とする三角形要素をアフィン変換により座標変換する画像処理方法である。この方法を用いることで、処理速度が速く、また後述する重畳変化画像IMSPを生成するに際して、顔の部分領域ごとに抽出したテクスチャを変化させることができる。
Bスプライン近似法は、特徴点を格子点とする四角要素を座標変換する画像処理方法であり、各格子点に重率を与えたうえで座標変換することを特徴とする。この方法を用いることで元画像OIMから第一変化画像IM1への滑らかなワーピング処理が可能である。
Note that the piecewise affine method is an image processing method in which a triangular element having a feature point as a vertex is coordinate-transformed by affine transformation. By using this method, when the processing speed is fast, and generates a superimposed change image IM SP to be described later, it is possible to change the texture extracted in each partial area of the face.
The B-spline approximation method is an image processing method in which square elements having feature points as lattice points are subjected to coordinate conversion, and is characterized by performing coordinate conversion after giving a weight to each lattice point. By using this method, smooth warping processing from the original image OIM to the first change image IM 1 is possible.

図1に戻り、本方法では、ステップS60の最初の条件分岐ではYESが選択されて第二の変化軸AX2にかかる決定因子が設定される(変化軸設定工程S30)。以下、第二の変化軸AX2にかかる決定因子として顔のテクスチャを選択する場合を例に説明する。 Returning to FIG. 1, in this method, YES is selected in the first conditional branch of step S60, and the determinant concerning the second change axis AX2 is set (change axis setting step S30). Hereinafter, a case where a facial texture is selected as a determinant related to the second change axis AX 2 will be described as an example.

第二の変化軸AX2に関しても、その決定因子を変化させる方向性を設定するための条件を入力して(条件入力工程S32)、適切なサンプル画像SIMを顔画像データベース90から抽出して母集団を生成する(母集団生成工程S34)。そして、母集団のサンプル画像SIMのテクスチャから基底ベクトルe2,jを予め求めたうえ、元画像OIMを主成分分析して重み係数b2,jを元画像OIMより算出する。 Also for the second change axis AX 2 , a condition for setting the directionality for changing the determinant is input (condition input step S32), and an appropriate sample image SIM is extracted from the face image database 90 to generate the mother. A group is generated (population generation step S34). Then, the base vector e2 , j is obtained in advance from the texture of the sample image SIM of the population, and the original image OIM is principally analyzed to calculate the weighting factor b2 , j from the original image OIM.

そして本方法では、母集団に属するサンプル画像SIMの顔のテクスチャを平均した平均顔テクスチャに向かって元画像OIMをモーフィング処理して第二変化画像IM2を生成するものとする。ここで、サンプル画像SIMの平均顔テクスチャとは、規格化された複数のサンプル画像SIMにおける肌のテクスチャを平均化したものである。 And in this way, it is assumed to generate a sample image SIM morphing the original image OIM towards the average face texture texture averaged face treatment to the second variation image IM 2 belonging to the population. Here, the average face texture of the sample image SIM is an average of skin textures in a plurality of standardized sample images SIM.

本方法では、顔画像(元画像OIM)を多色の色ごとに主成分分析して第二の変化軸AX2にかかる一次または複数次の基底ベクトルe2,jの重み係数b2,jをそれぞれ算出する。これにより、元画像OIMの色を維持したままでテクスチャを変化させることができ、元画像OIMと第二変化画像IM2との質感の相違を容易に目視確認することができる。 In this method, the face image (original image OIM) is subjected to principal component analysis for each of multiple colors, and the weight coefficient b 2, j of the primary or multi-dimensional basis vector e 2, j applied to the second change axis AX 2. Are calculated respectively. Thus, it is possible to change the texture while maintaining the color of the original image OIM, a difference in texture of the original image OIM and the second change image IM 2 can be easily visually confirmed.

具体的には、上式(2)における第二の変化軸AX2にかかる重み係数b2,jのうち所定の閾値次数n2よりも高次の重み係数b2,k(k=n2+1,n2+2,n2+3,・・・)を低減してモーフィング処理を行う。 Specifically, higher weight factor than the predetermined threshold degree n 2 of the second change-axis weighting factor b 2 according to AX 2, j in the above formula (2) b 2, k ( k = n 2 +1, n 2 +2, n 2 +3,.

ステップS60の二度目の条件分岐では、YESまたはNOのいずれを選択してもよい。第三の変化軸にしたがって元画像OIMを変化させて第三変化画像を生成してもよく(ステップS60:YES)、または変化画像の出力工程S70に進んでもよい(ステップS60:NO)。   In the second conditional branch in step S60, either YES or NO may be selected. The original image OIM may be changed according to the third change axis to generate a third change image (step S60: YES), or the process may proceed to a change image output step S70 (step S60: NO).

出力工程S70では、出力部70は、第一変化画像IM1と第二変化画像IM2とを互いに対比して出力する。図4は出力部70で表示出力される第一変化画像IM1と第二変化画像IM2の例を示す図である。 In the output step S70, the output unit 70 outputs the first change image IM 1 and the second change image IM 2 in comparison with each other. FIG. 4 is a diagram illustrating an example of the first change image IM 1 and the second change image IM 2 displayed and output by the output unit 70.

同図で、縦軸は顔形状の変化の度合いを示し、横軸はテクスチャの変化の度合いを示している。具体的には、右下の画像が元画像OIMである。その上部に並ぶ3枚の画像が第一変化画像IM1であり、元画像OIMからの変化度が小さい順に元画像OIMに近接して下方に配置してある。変化度の詳細は後述する。同図の右上に示す第一変化画像IM1のうちもっとも元画像OIMからの変化度が大きい画像が平均顔形状画像IM1avである。平均顔形状画像IM1avは、元画像OIMのテクスチャおよび色を保持したまま、顔形状のみを母集団のサンプル画像SIMの平均顔形状としたものである。 In the figure, the vertical axis indicates the degree of change in face shape, and the horizontal axis indicates the degree of change in texture. Specifically, the lower right image is the original image OIM. Its three images arranged in the upper portion is a first change image IM 1, it is arranged downward in proximity to the original image OIM sequentially change degree from the original image OIM is small. Details of the degree of change will be described later. Of the first change image IM 1 shown in the upper right of the figure, the image having the largest degree of change from the original image OIM is the average face shape image IM 1av . The average face shape image IM 1av is obtained by using only the face shape as the average face shape of the population sample image SIM while retaining the texture and color of the original image OIM.

一方、同図の右下の元画像OIMの左側に並ぶ最下段の3枚の画像が第二変化画像IM2であり、元画像OIMからの変化度が小さい順に元画像OIMに近接して右方に配置してある。同図の左下に示す第二変化画像IM2のうちもっとも元画像OIMからの変化度が大きい画像が平均顔テクスチャ画像IM2avである。平均顔テクスチャ画像IM2avは、元画像OIMの顔形状および色を保持したまま、テクスチャのみを母集団のサンプル画像SIMの平均顔テクスチャとしたものである。 On the other hand, the lowermost three images arranged on the left side of the lower right original image OIM in the same figure are the second change image IM 2 , and are adjacent to the original image OIM in ascending order of change from the original image OIM. It is arranged in the direction. Of the second change image IM 2 shown in the lower left of the figure, the image having the largest degree of change from the original image OIM is the average face texture image IM 2av . The average face texture image IM 2av is obtained by using only the texture as the average face texture of the population sample image SIM while retaining the face shape and color of the original image OIM.

本方法の第一変化画像IM1は、元画像OIMに関して第一の変化軸AX1にかかる重み係数b1,iのみを変更した画像であるが、かかる画像と同等に目視しうる程度において、第二の変化軸AX2にかかる重み係数b2,jを更に僅かに変更した画像も含む。第二変化画像IM2も同様であり、元画像OIMに関して第二の変化軸AX2にかかる重み係数b2,jのみを変更した画像のほか、かかる画像と同等に目視しうる程度において、第一の変化軸AX1にかかる重み係数b1,iを更に僅かに変更した画像を含む。
すなわち、第一の変化軸AX1または第二の変化軸AX2の一方に関する変化度が大きく、かつ他方に関する変化度がこれよりも十分に小さい画像IM11およびIM21(図4を参照)は、第一変化画像IM1および第二変化画像IM2にそれぞれ含まれる。図4に示す例では、第一変化画像IM1と第二変化画像IM2は右上側と左下側に4枚ずつ図示されている。
The first change image IM 1 of the present method is an image obtained by changing only the weighting factor b 1, i applied to the first change axis AX 1 with respect to the original image OIM. It also includes an image in which the weight coefficient b 2, j applied to the second change axis AX 2 is further slightly changed. The same applies to the second change image IM 2 , in addition to an image in which only the weighting factor b 2, j applied to the second change axis AX 2 is changed with respect to the original image OIM, It includes an image in which the weighting coefficient b 1, i applied to one change axis AX 1 is further slightly changed.
That is, the images IM 11 and IM 21 (see FIG. 4) having a large change degree with respect to one of the first change axis AX 1 and the second change axis AX 2 and a sufficiently small change degree with respect to the other. , Included in the first change image IM 1 and the second change image IM 2 , respectively. In the example shown in FIG. 4, four first change images IM 1 and second change images IM 2 are shown on the upper right side and the lower left side.

また、本方法の出力工程S70では、第一の変化軸AX1にかかる重み係数b1,iおよび第二の変化軸AX2にかかる重み係数b2,jをそれぞれ多段階に変更した重畳変化画像IMSPを生成する。そして出力工程S70では、第一変化画像IM1または第二変化画像IM2と対比して重畳変化画像IMSPをさらに出力する。 Further, in the output step S70 of the present method, the superposition change in which the weight coefficient b 1, i applied to the first change axis AX 1 and the weight coefficient b 2, j applied to the second change axis AX 2 are respectively changed in multiple stages. An image IM SP is generated. Then, in the output step S70, further outputs a first change image IM 1 or the second change image IM 2 and superimposed change image IM SP versus.

ここで、重畳変化画像IMSPは、元画像OIMに関して重み係数b1,iおよびb2,jの双方を同等程度に変更した画像であり、図4では左上側に7枚図示されている。図4のもっとも左上の顔画像は、平均顔形状と平均顔テクスチャを備える平均顔IMavである。 Here, superimposed change image IM SP is an image obtained by changing the equivalent of about both weighting coefficients b 1, i and b 2, j with respect to the original image OIM, are shown seven on the upper left side in FIG. 4. The upper left face image in FIG. 4 is an average face IM av having an average face shape and an average face texture.

ここで、従来のワーピング処理では、元画像のテクスチャおよび色を維持したまま形状のみを変化させて変化画像を生成する。また、従来のモーフィング処理では、元画像の顔形状、テクスチャおよび色の総てを変化させて変化画像を生成する。図4に示す白色の矢印MRPは、元画像OIMから平均顔IMavに向かって顔形状とテクスチャを共に変化させたモーフィング処理の軌跡を示している。
これに対し、本方法のように異なる変化軸に従って元画像OIMを変化させた第一変化画像IM1と第二変化画像IM2とを対比して出力することにより、顔印象に対する変化軸ごとの影響を目視的に確認することができる。このため、従来のモーフィング処理のように第一の変化軸AX1と第二の変化軸AX2とを混在させて画像を変化させてしまう手法と異なり、本方法によれば決定因子ごとの変化量と顔印象の変化との対応関係を定量化することができる。
Here, in the conventional warping process, a changed image is generated by changing only the shape while maintaining the texture and color of the original image. In the conventional morphing process, a change image is generated by changing all of the face shape, texture, and color of the original image. A white arrow MRP shown in FIG. 4 indicates a locus of morphing processing in which both the face shape and the texture are changed from the original image OIM toward the average face IM av .
On the other hand, the first change image IM 1 and the second change image IM 2 in which the original image OIM is changed according to different change axes as in the present method are output in comparison with each other. The influence can be confirmed visually. For this reason, unlike the conventional morphing process in which the first change axis AX 1 and the second change axis AX 2 are mixed to change the image, according to this method, the change for each determinant is made. The correspondence between the amount and the change in face impression can be quantified.

図3に戻り、本方法では、被験者が備える属性(性別、人種、年齢など)に応じてサンプル画像SIMを抽出して母集団を生成することができる(図1:母集団生成工程S34)。このように被験者と属性が共通する母集団から算出される基底ベクトルは被験者の顔の特徴を良好に反映したものとなる。そして、低次の基底は被験者および母集団の大局的な見た目の印象の共通点を表すものであり、高次の基底は被験者個々の局所的な見た目の印象を表すものである。したがって、元画像OIMから高次の重み係数から順に低減していくことで、被験者の特徴を残したまま第一の変化軸AX1または第二の変化軸AX2に従って顔画像を徐々に変化させていくことができる。 Returning to FIG. 3, in this method, a sample image SIM can be extracted according to the attributes (gender, race, age, etc.) of the subject to generate a population (FIG. 1: Population generation step S34). . In this way, the basis vector calculated from the population having the same attributes as the subject is a good reflection of the facial features of the subject. The low-order basis represents a common point of appearance of the subjects and the population, and the high-order basis represents a local appearance impression of each subject. Therefore, the face image is gradually changed according to the first change axis AX 1 or the second change axis AX 2 while leaving the characteristics of the subject by sequentially reducing from the original image OIM to the higher-order weight coefficient. Can continue.

図3に例示した顔形状テーブルでは、属性データとして、サンプル提供者の性別(女性:f1、または男性:f2)、複数人の評価者が予めサンプル画像SIMを官能評価して魅力的と感じたか否か(魅力的である:f3、魅力的でない:f4)、サンプル提供者の人種(日本人:f5、他の人種1:f6、他の人種2:f7)がサンプル画像SIMに付与されている。ここで、顔画像を官能評価した場合に評価者が魅力的と感じる割合が高いことを、その顔画像の魅力度が高いという。   In the face shape table illustrated in FIG. 3, as attribute data, the sex (female: f1 or male: f2) of the sample provider, whether multiple evaluators felt sensory evaluation of the sample image SIM in advance was attractive. No (attractive: f3, unattractive: f4), sample provider race (Japanese: f5, other race 1: f6, other race 2: f7) in the sample image SIM Has been granted. Here, the high degree of attractiveness of the face image is that the rate at which the evaluator feels attractive when the face image is subjected to sensory evaluation is said to be high.

さらに、図3に示す例では、魅力度以外の官能的な評価項目に関しても属性データが用意されており、複数人の評価者が予め官能評価して決定したサンプル画像SIMの見た目の印象を示す属性データが、サンプル画像SIMに付与されている。具体的には、目が大きいとの印象を受けた顔(f8)、小顔であるとの印象を受けた顔(f9)、鼻筋が通っているとの印象を受けた顔(f10)、丸顔であるとの印象を受けた顔(f11)、角張った顔であるとの印象を受けた顔(f12)を例示する。   Further, in the example shown in FIG. 3, attribute data is also prepared for sensual evaluation items other than attractiveness, and the appearance impression of the sample image SIM determined by sensory evaluation in advance by a plurality of evaluators is shown. Attribute data is given to the sample image SIM. Specifically, the face (f8) that received the impression that the eyes are large, the face (f9) that received the impression that it was a small face, the face (f10) that received the impression that the nose was passing, The face (f11) that received the impression that it is a round face and the face (f12) that received the impression that it is a square face are illustrated.

また、客観評価が可能な属性データとして、眼鏡を掛けている顔(f13)、左右対称の傾向の強い顔(f14)などを挙げることができる。顔の左右対称性は、サンプル画像における顔の特徴点の座標位置の演算により定量的に求めることができる。   Further, as attribute data that can be objectively evaluated, a face wearing glasses (f13), a face with a strong symmetrical tendency (f14), and the like can be given. The symmetry of the face can be quantitatively obtained by calculating the coordinate position of the feature point of the face in the sample image.

これらの属性データは顔形状に影響を与える因子であり、言い換えると各母集団に属するサンプル画像SIMの平均的な顔形状(平均顔形状)が互いに異なる因子である。ここで、人間の素顔の平均顔形状は一般に均整が取れた顔となるため、被験者の性別(f1、f2)や人種(f5〜f7)に基づいて顔画像データベース90から抽出された母集団の平均顔形状は、魅力的と官能評価される場合が多い。具体的には、被験者が日本人の女性の場合、図3の顔形状テーブルのうち属性データf1とf5を条件入力部20で選択すると、その論理積(AND条件)に従って抽出部60は顔画像データベース90よりサンプル画像SIMを抽出する。具体的には、サンプル画像SIMのNO1,2,5,8,14,・・・が抽出されて母集団が生成される。   These attribute data are factors that affect the face shape. In other words, the average face shapes (average face shapes) of the sample images SIM belonging to each population are different from each other. Here, since the average face shape of the human face is generally a balanced face, the population extracted from the face image database 90 based on the sex (f1, f2) and race (f5-f7) of the subject. The average face shape is often attractive and sensory evaluated. Specifically, when the subject is a Japanese woman, when the attribute data f1 and f5 are selected by the condition input unit 20 in the face shape table of FIG. 3, the extraction unit 60 determines the face image according to the logical product (AND condition). A sample image SIM is extracted from the database 90. Specifically, NO1, 2, 5, 8, 14,... Of the sample image SIM are extracted to generate a population.

そして、主成分分析部40は、この母集団に関する基底ベクトルeを取得したうえ、元画像OIMの重み係数b(固有値)を算出する。変化画像生成部50は、重み係数bを高次基底から順にゼロにしていくことで、被験者の元画像OIMの顔形状を母集団(日本人の女性)の平均顔形状に徐々に近づけた第一変化画像IM1が生成される。かかる第一変化画像IM1を出力部70で表示出力することで、被験者は自らの顔を均整化していくことで美観が向上することを目視的に確認することができる。そして被験者は、顔のどの部位をどの程度だけ変化させることで美観が向上するかを定量的に把握することができる。 Then, the principal component analysis unit 40 obtains the basis vector e regarding this population and calculates the weight coefficient b (eigenvalue) of the original image OIM. The change image generation unit 50 sets the face shape of the original image OIM of the subject gradually closer to the average face shape of the population (Japanese women) by sequentially setting the weighting coefficient b to zero from the higher order basis. A change image IM 1 is generated. By displaying and outputting the first change image IM 1 with the output unit 70, the subject can visually confirm that the appearance is improved by leveling his / her face. The subject can quantitatively grasp how much the portion of the face is changed and how much the beauty is improved.

そして、被験者と属性が一致するサンプル画像SIMを抽出して母集団を生成することにより、元画像OIMにおける被験者らしさを維持したままで顔形状を均整化することができる。   Then, by extracting a sample image SIM whose attribute matches that of the subject and generating a population, the face shape can be leveled while maintaining the subject likeness in the original image OIM.

母集団生成工程S34では、評価者が官能評価して魅力的であると回答したサンプル画像SIMの集合を表す属性データf3のほか、目が大きいと官能評価されたサンプル画像SIMの集合(属性データf8)、小顔であると官能評価されたサンプル画像SIMの集合(属性データf9)、鼻筋が通っていると官能評価されたサンプル画像SIMの集合(属性データf10)などを選択してもよい。または、丸顔であると官能評価されたサンプル画像SIMの集合(f11)、角張った顔であると官能評価されたサンプル画像SIMの集合(f12)を選択してもよい。
これらの母集団に共通する基底ベクトルで元画像OIMを展開し、その重み係数bを高次側から低減していく(ゼロにしていく)ことで、魅力的な顔の平均顔形状、目が大きい顔の平均顔形状、小顔の平均顔形状、鼻筋が通っている顔の平均顔形状、丸顔の平均顔形状、角張った顔の平均顔形状など、被験者が希望する顔形状に向かって元画像OIMを変形(ワーピング処理)することができる。すなわち本方法によれば、従来は定量化することが困難であった官能的な属性についても変化軸として設定することができ、当該変化軸の傾向を徐々に強めるように元画像OIMを画像処理することができる。
In the population generation step S34, in addition to the attribute data f3 representing the set of sample images SIM that the evaluator has answered by sensory evaluation and attractive, a set of sample images SIM (attribute data) that has been sensory evaluated that the eyes are large f8), a set of sample images SIM that has been sensory-evaluated to be a small face (attribute data f9), a set of sample images SIM that have been sensory-evaluated if the nose is passing (attribute data f10), etc. . Alternatively, a set (f11) of sample images SIM that are sensory-evaluated to be a round face and a set (f12) of sample images SIM that are sensory-evaluated to be an angular face may be selected.
By developing the original image OIM with basis vectors common to these populations and reducing the weighting coefficient b from the higher order side (to zero), the average face shape and attractive eyes of the attractive face Towards the face shape desired by the subject, such as the average face shape of a large face, the average face shape of a small face, the average face shape of a face that passes through the nose, the average face shape of a round face, and the average face shape of an angular face The original image OIM can be deformed (warping process). That is, according to this method, it is possible to set a sensory attribute that has been difficult to quantify as a change axis in the past, and the original image OIM is subjected to image processing so as to gradually strengthen the tendency of the change axis. can do.

また、被験者が眼鏡を掛けている場合は、眼鏡を掛けたサンプル画像SIMの集合(属性データf13)を選択してもよい。また、被験者の顔が左右対称に近い場合には、左右対称の傾向の強いサンプル画像SIMの集合(属性データf14)を選択してもよい。   When the subject wears glasses, a set of sample images SIM (attribute data f13) wearing glasses may be selected. Further, when the subject's face is close to left-right symmetry, a set of sample images SIM (attribute data f14) having a strong left-right symmetry tendency may be selected.

なお、顔画像データベース90は画像データを記憶する機能を有していればよく、本方法を実施する際に顔画像データベース90にサンプル画像SIMが現に記憶されていることを必ずしも要するものではない。また、基底記憶部92は基底ベクトルeのベクトルデータを記憶する機能を有していればよく、顔画像処理装置100を構築した時点においてこれらのデータが現に記憶されていることを必ずしも要するものではない。   The face image database 90 only needs to have a function of storing image data, and it is not always necessary that the sample image SIM is actually stored in the face image database 90 when the present method is performed. The basis storage unit 92 only needs to have a function of storing vector data of the basis vector e, and it is not always necessary that these data are actually stored when the face image processing apparatus 100 is constructed. Absent.

図5は、顔のテクスチャ(決定因子)を変化させる条件を表すテクスチャテーブルの例である。テクスチャテーブルは、顔画像データベース90に記憶された多数のサンプル画像SIMを、顔のテクスチャの特徴に寄与すると考えられる属性によって分類したものである。
図6は、顔の色(決定因子)を変化させる条件を表す色テーブルの例である。色テーブルは、顔画像データベース90に記憶された多数のサンプル画像SIMを、顔の色の特徴に寄与すると考えられる属性によって分類したものである。
FIG. 5 is an example of a texture table representing conditions for changing the facial texture (determinant). The texture table is obtained by classifying a large number of sample images SIM stored in the face image database 90 according to attributes that are considered to contribute to facial texture characteristics.
FIG. 6 is an example of a color table representing conditions for changing the face color (determinant). The color table is obtained by classifying a large number of sample images SIM stored in the face image database 90 according to attributes that are considered to contribute to facial color characteristics.

各サンプル画像SIMには、決定因子の少なくとも一つに関して、属性データの一つまたは複数が付与されている   Each sample image SIM is assigned one or more attribute data for at least one of the determinants.

図5に例示するテクスチャテーブルでは、属性データとして、サンプル提供者の性別(女性:t1、または男性:t2)、魅力度(魅力的である:t3、魅力的でない:t4)、人種(日本人:t11、他の人種1:t12、他の人種2:t13)がサンプル画像SIMに付与されている。これらは図3に示した顔形状テーブルと共通である。テクスチャテーブルでは、このほか、顔画像のテクスチャに寄与する属性として、サンプル提供者の年代(10代:t5、20代:t6、30代:t7、40代:t8、50代:t9、60代以降:t10)が更にサンプル画像SIMに付与されている。顔形状に比べてテクスチャは年代の影響が顕著に現れるためである。   In the texture table illustrated in FIG. 5, as attribute data, the sex (female: t1 or male: t2) of the sample provider, attractiveness (attractive: t3, unattractive: t4), race (Japan) Person: t11, other race 1: t12, other race 2: t13) are given to the sample image SIM. These are the same as the face shape table shown in FIG. In the texture table, other attributes contributing to the texture of the face image include the age of the sample provider (10s: t5, 20s: t6, 30s: t7, 40s: t8, 50s: t9, 60s). Thereafter, t10) is further added to the sample image SIM. This is because the texture has a significant influence on the age compared to the face shape.

さらに、図5に示す例では、魅力度以外の官能的な評価項目に関しても属性データが用意されている。具体的には、肌が美白であるとの印象を受けた顔(t14)、肌の色むらが少ないとの印象を受けた顔(t15)、キメが細かいとの印象を受けた顔(t16)を例示する。これらは、美的に良好な評価項目である。また、図5に示す例では、美的に不良な評価項目を表す官能的な属性データとして、たとえば、そばかすが目立つとの印象を受けた顔(t17)などが用意されていてもよい。   Furthermore, in the example shown in FIG. 5, attribute data is also prepared for sensory evaluation items other than the attractiveness. Specifically, the face (t14) that received the impression that the skin is whitened, the face (t15) that received the impression that there was little unevenness in the color of the skin, and the face (t16) that received the impression that the texture was fine ). These are aesthetically good evaluation items. In the example illustrated in FIG. 5, for example, a face (t17) that has received an impression that freckles are conspicuous may be prepared as sensual attribute data that represents an aesthetically poor evaluation item.

図6に示す色テーブルにおける属性データのうち、サンプル提供者の性別(女性:c1、または男性:c2)、魅力度(魅力的である:c3、魅力的でない:c4)、人種(日本人:c5、他の人種1:c6、他の人種2:c7)は他のテーブルと共通である。そして、魅力度以外の官能的な評価項目に関する属性データとしては、色白であるとの印象を受けた顔(c8)、赤みが強いとの印象を受けた顔(c9)、健康的にみえるとの印象を受けた顔(c10)を例示する。   Among the attribute data in the color table shown in FIG. 6, the sex (female: c1 or male: c2), attractiveness (attractive: c3, unattractive: c4), race (Japanese) of the sample provider : C5, other race 1: c6, other race 2: c7) are common to other tables. The attribute data related to the sensual evaluation items other than the attractiveness level includes a face (c8) that received an impression of fairness, a face (c9) that received an impression of strong redness, and a healthy appearance. The face (c10) which received the impression of is illustrated.

これらの属性データは、設定された決定因子における変化軸として、図3、5および6に示した各テーブルから一つ以上を選択して設定することができる。これにより、元画像OIMを主成分分析するための母集団が生成される。   These attribute data can be set by selecting one or more of the tables shown in FIGS. 3, 5 and 6 as change axes in the set determinants. As a result, a population for principal component analysis of the original image OIM is generated.

以上、母集団生成工程S34でサンプル画像SIMの母集団を生成するにあたり被験者が属する属性データまたは被験者が希望する顔の傾向を表す属性データを、条件入力部20で入力することを例示した。しかしながら本発明はこれに限られない。   As described above, the condition input unit 20 inputs the attribute data to which the subject belongs or the attribute data indicating the facial tendency desired by the subject when generating the population of the sample image SIM in the population generation step S34. However, the present invention is not limited to this.

本方法に代えて、たとえば元画像OIMを規格化部12で画像分析して決定因子ごとの傾向を定量化したうえで、元画像OIMとの共通性の高いサンプル画像SIMを抽出部60が顔画像データベース90より自動的に抽出してもよい。かかる抽出は、サンプル画像SIMの特徴点の位置の傾向を学習したサポートベクターマシン(SVM)を用いて行うことができる。
このほか、変化軸ごとにサンプル画像SIMを抽出して母集団を生成するのではなく、顔画像データベース90に蓄積されたすべてのサンプル画像SIMを常に母集団として用いてもよい。すなわち、条件入力工程S32および母集団生成工程S34の実施は任意である。
Instead of this method, for example, after the original image OIM is image-analyzed by the standardization unit 12 and the tendency for each determinant is quantified, the extraction unit 60 extracts the sample image SIM having high commonality with the original image OIM. You may extract automatically from the image database 90. FIG. Such extraction can be performed using a support vector machine (SVM) that has learned the tendency of the position of the feature points of the sample image SIM.
In addition, instead of extracting a sample image SIM for each change axis and generating a population, all sample images SIM accumulated in the face image database 90 may always be used as the population. That is, the condition input step S32 and the population generation step S34 are optional.

<第二実施形態>
本発明の第二実施形態にかかる顔画像処理方法(以下、本方法)を説明する。第一実施形態と共通する事項について重複する説明は省略する。
<Second embodiment>
A face image processing method (hereinafter, this method) according to the second embodiment of the present invention will be described. A duplicate description of matters common to the first embodiment is omitted.

本方法は、第一の変化軸AX1および第二の変化軸AX2として、共に決定因子をテクスチャとする(重複選択する)ことを特徴とする。本方法のフローチャートおよび本実施形態の顔画像処理装置100のブロック図は、それぞれ第一実施形態と共通である(図1、図2を参照)。 This method is characterized in that both the first change axis AX 1 and the second change axis AX 2 have a determinant as texture (overlapping selection). The flowchart of this method and the block diagram of the face image processing apparatus 100 of this embodiment are the same as those of the first embodiment (see FIGS. 1 and 2).

共通の決定因子を重複選択する場合、主成分分析を行う母集団を異なるものとする。これにより、第一の変化軸AX1の平均顔テクスチャ画像と第二の変化軸AX2の平均顔テクスチャ画像とは互いに異なるものとなる。このため、共通の決定因子を重複選択した場合であっても、第一変化画像IM1と第二変化画像IM2とは異なる画像となる。たとえば、図5に示したテクスチャテーブルから選択される一以上の属性データを相違させることにより、異なる二つの母集団を生成することができる。このほか、異なるテーブルから属性データを選択してもよい。 When the common determinant is selected repeatedly, the population for which the principal component analysis is performed is different. Thereby, the average face texture image of the first change axis AX 1 and the average face texture image of the second change axis AX 2 are different from each other. For this reason, even when the common determinant is selected repeatedly, the first change image IM 1 and the second change image IM 2 are different images. For example, two different populations can be generated by making one or more attribute data selected from the texture table shown in FIG. 5 different. In addition, attribute data may be selected from different tables.

本方法では、第一の変化軸AX1を図5のテクスチャテーブルから選択し、第二の変化軸AX2を図7の化粧質感テーブルから選択するものとする(図1:変化軸設定工程S30)。 In this method, the first change axis AX 1 is selected from the texture table of FIG. 5, and the second change axis AX 2 is selected from the makeup texture table of FIG. 7 (FIG. 1: change axis setting step S30). ).

本方法の場合、第一の変化軸AX1は顔の大局的な見た目の印象を表す第一のテクスチャであり、第二の変化軸AX2は顔の質感を表す第二のテクスチャである。変化画像生成工程S50では、母集団生成工程S34で生成された母集団に属するサンプル画像SIMの顔のテクスチャを平均した平均顔テクスチャに向かって顔画像(元画像OIM)をそれぞれモーフィング処理して第一変化画像IM1および第二変化画像IM2を生成する。 In the case of this method, the first change axis AX 1 is a first texture representing the general appearance of the face, and the second change axis AX 2 is a second texture representing the texture of the face. In the change image generation step S50, the face image (original image OIM) is morphed to the average face texture obtained by averaging the face textures of the sample images SIM belonging to the population generated in the population generation step S34. A first change image IM 1 and a second change image IM 2 are generated.

図7に示す化粧質感テーブルは、サンプル提供者に施した化粧の質感によってサンプル画像SIMを分類したものである。化粧の質感を変化させることで顔のテクスチャは一般に大きく変化する。本方法では、各サンプル提供者の顔に対して、m1:シャープ(立体的にほっそりした印象)、m2:ウェット(ぬれ肌様)、m3:ソフト(ふんわりした印象)およびm4:ヘヴィー(のっぺりした印象)の4種類の異なる質感の化粧を個別に施した場合の顔画像をサンプル画像SIMとして顔画像データベース90に格納しておく。質感の異なるこれらの4種類の化粧は化粧専門家が施したものが好ましい。   The makeup texture table shown in FIG. 7 is obtained by classifying the sample images SIM according to the texture of makeup applied to the sample provider. By changing the texture of makeup, the facial texture generally changes greatly. In this method, m1: Sharp (stereoscopically slender impression), m2: Wet (wet skin-like), m3: Soft (soft impression) and m4: Heavy (appropriate) for each sample provider's face A face image in the case where makeup with four different textures (impression) is applied individually is stored in the face image database 90 as a sample image SIM. These four types of makeup with different textures are preferably those made by a makeup specialist.

すなわち、本実施形態の顔画像データベース90は、質感が異なる複数通りの化粧方法をそれぞれ施した顔が撮像されたサンプル画像を含む。抽出部60は、当該複数通りから化粧方法を選択して母集団を生成する。   That is, the face image database 90 according to the present embodiment includes sample images obtained by capturing faces that have been subjected to a plurality of makeup methods with different textures. The extraction unit 60 selects a makeup method from the plurality of methods and generates a population.

本方法では、一例として、被験者が30代の典型的な日本人女性であり、ソフトな化粧を施すことによって、キメが細かく魅力的に見えるようになることを希望している場合を説明する。この場合、図5のテクスチャテーブルから、被験者が属する属性データt1、t7およびt11と、被験者が希望する評価項目として属性データt3およびt14を選択する。さらに、図7の化粧質感テーブルから属性データm3を選択する(図1:条件入力工程S32)。   In this method, as an example, a case will be described in which the subject is a typical Japanese woman in her 30s who wants the texture to look fine and attractive by applying soft makeup. In this case, attribute data t1, t7, and t11 to which the subject belongs and attribute data t3 and t14 as the evaluation items desired by the subject are selected from the texture table in FIG. Further, the attribute data m3 is selected from the makeup texture table of FIG. 7 (FIG. 1: condition input step S32).

各テーブルから選択された属性データに基づいて顔画像データベース90をそれぞれ検索してサンプル画像SIMを抽出し、二つの母集団を生成する(図1:母集団生成工程S34)。   The face image database 90 is searched based on the attribute data selected from each table, sample images SIM are extracted, and two populations are generated (FIG. 1: population generation step S34).

母集団が生成されると、予め基底ベクトルeを求めたうえ、元画像OIMを主成分分析して重み係数b1,iおよびb2,jを算出する(図1:主成分分析工程S40)。
そして、変化画像生成工程S50では、かかる重み係数b1,iを高次側から徐々に低減していくことで、被験者の元画像OIMの顔形状と色を保持したまま、「キメが細かく魅力的に見える30代の日本人女性」の平均的なテクスチャに元画像OIMを近づけた第一変化画像IM1を生成することができる。また、変化画像生成工程S50では、重み係数b2,jを高次側から徐々に低減していくことで、被験者の元画像OIMの顔形状と色を保持したまま、「ソフトな質感の化粧を施した顔」の平均的なテクスチャに元画像OIMを近づけた第二変化画像IM2を生成することができる。
When the population is generated, the basis vector e is obtained in advance, and the original image OIM is subjected to principal component analysis to calculate weight coefficients b 1, i and b 2, j (FIG. 1: principal component analysis step S40). .
Then, in the change image generation step S50, by gradually reducing the weighting factors b 1 and i from the higher order side, while maintaining the face shape and color of the subject's original image OIM, “the texture is finely attractive. It is possible to generate the first change image IM 1 in which the original image OIM is brought close to the average texture of the “Japanese woman in his 30s”. In the change image generation step S50, the weight coefficients b 2 and j are gradually reduced from the higher order side, so that the face shape and color of the original image OIM of the subject are maintained and the “soft texture makeup” is maintained. It is possible to generate the second change image IM 2 in which the original image OIM is brought close to the average texture of “the face subjected to.

<第三実施形態>
本発明の第三実施形態にかかる顔画像処理方法(以下、本方法)を説明する。
図8は本実施形態の顔画像処理装置100のブロック図である。本実施形態の顔画像処理装置100は、変化度算出部52、変化度判定部54、美容手段記憶部80および美容手段抽出部82を備える点で第一実施形態(図2を参照)と相違する。
第一実施形態または第二実施形態と共通する事項について重複する説明は省略する。また、美容手段記憶部80および美容手段抽出部82に関しては本実施形態の変形例にて後述する。
<Third embodiment>
A face image processing method (hereinafter, this method) according to a third embodiment of the present invention will be described.
FIG. 8 is a block diagram of the face image processing apparatus 100 of the present embodiment. The face image processing apparatus 100 of the present embodiment is different from the first embodiment (see FIG. 2) in that it includes a change degree calculation unit 52, a change degree determination unit 54, a beauty means storage unit 80, and a beauty means extraction unit 82. To do.
A duplicate description of matters common to the first embodiment or the second embodiment is omitted. The beauty means storage unit 80 and the beauty means extraction unit 82 will be described later in a modification of the present embodiment.

本方法は、元画像OIMの特徴を失うことなく自然に見える範囲で第一変化画像IM1および第二変化画像IM2を生成することを特徴とする。 The method is characterized in that the first change image IM 1 and the second change image IM 2 are generated in a range that looks natural without losing the characteristics of the original image OIM.

ここで、第一実施形態においては、サンプル画像SIMの母集団の選択によっては平均顔形状画像IM1avや平均顔テクスチャ画像IM2av(および平均顔IMav)が元画像OIMから掛け離れてしまう場合がある。これに対し、本実施形態では元画像OIMからの変化度の大小を判定することで、変化画像が自然に見えるか否かを知ることができる。 Here, in the first embodiment, depending on the selection of the population of the sample image SIM, the average face shape image IM 1av and the average face texture image IM 2av (and the average face IM av ) may be separated from the original image OIM. is there. On the other hand, in this embodiment, it is possible to know whether or not the changed image looks natural by determining the degree of change from the original image OIM.

本方法では、第一の変化軸AX1にかかる重み係数b1,m(m=k+1,k+2,k+3,・・・)を低減する閾値次数kを、顔形状の変化度に基づいて設定する。本方法の変化画像生成工程S50では、閾値次数kよりも高次の重み係数b1,mをゼロにすることで元画像OIMの顔形状を変化させる。 In this method, the threshold order k for reducing the weighting factor b 1, m (m = k + 1, k + 2, k + 3,...) Applied to the first change axis AX 1 is set based on the degree of change in face shape. . In the change image generation step S50 of this method, the face shape of the original image OIM is changed by setting the higher-order weight coefficients b 1, m higher than the threshold order k to zero.

図9は、第一変化画像IM1を生成する変化画像生成工程S50の詳細を示すフローチャートである。本方法では、顔形状の変化度として、累積寄与率(CCR:cumulative contribution ratio)を用いる。 Figure 9 is a flow chart showing the details of the modification image generation step S50 that generates a first change image IM 1. In this method, a cumulative contribution ratio (CCR) is used as the change degree of the face shape.

変化度算出部52は、第一の変化軸AX1にかかる重み係数b1,iの累積寄与率(CCR)を下式(3)により算出する。 The degree-of-change calculating unit 52 calculates the cumulative contribution ratio (CCR) of the weighting factors b 1, i applied to the first change axis AX 1 by the following equation (3).

Figure 0005650012
Figure 0005650012

ここで、累積寄与率CCRが低い低次側の基底のみから再構成された第一変化画像IM1は、平均顔形状画像の影響を強く受け、被験者の局所的な見た目の印象が捨象された画像となる。言い換えると、適度な閾値次数kを設定し、それよりも高次側の基底を元画像OIMから除去することで、被験者の大局的な見た目の印象を残しつつ、元画像OIMが平均顔形状画像に近づいて均整が取れた顔形状となる。そして、閾値次数kが高すぎる場合には元画像OIMからの変化が過小であり、閾値次数kが低すぎる場合には元画像OIMからの変化が過大となって自然さが失われる。このため、式(3)を用いて、累積寄与率が適度な閾値(たとえば0.7〜0.9)となる臨界次数(閾値次数k)を算出する。 Here, the first change image IM 1 reconstructed only from the low-order base having a low cumulative contribution CCR is strongly influenced by the average face shape image, and the local appearance of the subject is discarded. It becomes an image. In other words, by setting an appropriate threshold order k and removing a higher-order base from the original image OIM, the original image OIM is an average face shape image while leaving a general appearance impression of the subject. It becomes a face shape with good balance. If the threshold order k is too high, the change from the original image OIM is too small. If the threshold order k is too low, the change from the original image OIM is excessive and the naturalness is lost. For this reason, the critical order (threshold order k) at which the cumulative contribution rate becomes an appropriate threshold value (for example, 0.7 to 0.9) is calculated using Expression (3).

すなわち、累積寄与率CCRと変化度とは負の相関があり、累積寄与率CCRが低い場合に元画像OIMの変化度が高いと判定することができる。これにより、第一変化画像IM1による顔形状の変化率を所望に調整することができる。 In other words, the cumulative contribution rate CCR and the degree of change have a negative correlation, and when the cumulative contribution rate CCR is low, it can be determined that the degree of change of the original image OIM is high. Thus, it is possible to adjust the rate of change of the face shape according to the first change image IM 1 as desired.

閾値は変化度判定部54に記憶されている。変化度判定部54は、累積寄与率CCRと閾値とを大小判定する。本実施形態の変化画像生成部50は、累積寄与率CCRが閾値に対応する値に至った、すなわち閾値次数kが変化度判定部54で見つかったと判断した場合に、閾値次数kを最高次として第一変化画像IM1を再構成する。 The threshold value is stored in the change degree determination unit 54. The degree-of-change determination unit 54 determines the magnitude of the cumulative contribution rate CCR and the threshold value. When the change image generation unit 50 according to the present embodiment determines that the cumulative contribution rate CCR has reached a value corresponding to the threshold, that is, the threshold degree k has been found by the change degree determination unit 54, the threshold order k is set to the highest order. The first change image IM 1 is reconstructed.

より具体的には、本実施形態の変化度算出部52は、上式(1)における基底の最高次数(第n次)から次数を1だけ減じ(ステップS51)、第1次から第n−1次までの累積寄与率CCRを算出する(ステップS521)。この累積寄与率CCRが閾値(たとえば0.9)を上回っていると変化度判定部54が判定した場合(ステップS531:YES)、変化度算出部52は第n−1次および第n次の重み係数b1,n-1およびb1,nをゼロとすることにより高次基底を除去する(ステップS54)。
つづけて、変化度算出部52はさらに基底次数を1だけ減じ(ステップS51)、第1次から第n−2次までの累積寄与率CCRを算出する(ステップS521)。変化度判定部54はこの累積寄与率CCRを閾値と大小判定する。
このようにして累積寄与率CCRの更新と閾値との大小判定とを繰り返すことにより、累積寄与率CCRが閾値を下回ることとなる次数(k次)が求まる(ステップS531:NO)。変化画像生成部50は、k次基底を除去せずこれを最高次として画像再構成をすることで第一変化画像IM1を生成する。
More specifically, the degree-of-change calculating unit 52 of the present embodiment subtracts the order by 1 from the highest order (n-th order) of the base in the above equation (1) (step S51), and from the first order to the n-th order. The cumulative contribution rate CCR up to the first order is calculated (step S521). When the degree-of-change determination unit 54 determines that the cumulative contribution rate CCR exceeds a threshold value (for example, 0.9) (step S531: YES), the degree-of-change calculation unit 52 determines the n−1th order and the nth order. Higher-order bases are removed by setting the weight coefficients b 1, n-1 and b 1, n to zero (step S54).
Subsequently, the degree-of-change calculating unit 52 further reduces the base order by 1 (step S51), and calculates the cumulative contribution rate CCR from the first order to the n-2nd order (step S521). The degree of change determination unit 54 determines the cumulative contribution rate CCR as a threshold value.
Thus, by repeating the update of the cumulative contribution rate CCR and determining the magnitude of the threshold value, the order (kth order) that causes the cumulative contribution rate CCR to fall below the threshold value is obtained (step S531: NO). The change image generation unit 50 generates the first change image IM 1 by performing image reconstruction using the highest order without removing the k-th order basis.

本方法では、この閾値を段階的に低減することで、元画像OIMからの変化度が漸増する複数枚の第一変化画像IM1を生成することができる。 In this method, a plurality of first change images IM 1 in which the degree of change from the original image OIM gradually increases can be generated by reducing the threshold value stepwise.

具体的には、条件入力部20(図2を参照)の操作により第一変化画像IM1の生成の継続が選択されると(ステップS56:NO)、変化度判定部54は閾値を低減(たとえば0.9から0.8に低減)する(ステップS57)。
変化度算出部52は、この新しい閾値に達するまで基底の次数を低減(ステップS51)して累積寄与率CCRを更新(ステップS521)し、高次基底を除去(ステップS54)する。そして、累積寄与率CCRが新しい閾値以下となる閾値次数kが変化度判定部54により見つかると(ステップS531:NO)、変化画像生成部50は新たな第一変化画像IM1を生成する(ステップS55)。
Specifically, when the continuation of generation of the first change image IM 1 is selected by the operation of the condition input unit 20 (see FIG. 2) (step S56: NO), the degree of change determination unit 54 reduces the threshold ( For example, it is reduced from 0.9 to 0.8) (step S57).
The degree-of-change calculator 52 reduces the order of the base until the new threshold is reached (step S51), updates the cumulative contribution rate CCR (step S521), and removes the higher-order base (step S54). When the threshold order k the cumulative contribution ratio CCR is a new threshold value or less is found by the change determination unit 54 (step S531: NO), change image generating unit 50 generates a new first change image IM 1 (step S55).

かかる処理を繰り返すことにより、元画像OIMの変化度が漸増する複数枚の第一変化画像IM1を生成することができる(図4を参照)。 By repeating such processing, it is possible to generate a plurality of first change images IM 1 in which the degree of change of the original image OIM gradually increases (see FIG. 4).

第二の変化軸AX2に関しては、第二の変化軸AX2にかかる重み係数b2,jに基づいて、モーフィング処理によるテクスチャの変化度を判定する。これにより、元画像OIMにおけるテクスチャの特徴を失うことなく、自然な範囲で元画像OIMのテクスチャを変化させた第二変化画像IM2を生成することができる。 For the second variation axis AX 2, based on the second weighting factor b 2 according to the change axis AX 2, j, determining the degree of change in texture due morphing process. Thereby, the second changed image IM 2 in which the texture of the original image OIM is changed within a natural range can be generated without losing the texture characteristics of the original image OIM.

第二変化画像IM2におけるテクスチャの変化度もまた累積寄与率CCRを用いて判定することが可能である。本実施形態の変形例では、累積寄与率CCRを用いてテクスチャの変化度を判定する(図11を参照)。
本実施形態では、累積寄与率CCRに代えて元画像OIMと第二変化画像IM2との変化度を演算する方法を以下に説明する。
The degree of texture change in the second change image IM 2 can also be determined using the cumulative contribution rate CCR. In the modification of the present embodiment, the degree of texture change is determined using the cumulative contribution rate CCR (see FIG. 11).
In the present embodiment, a method of calculating the degree of change between the original image OIM and the second change image IM 2 instead of the cumulative contribution rate CCR will be described below.

変化度の演算方法を二通り説明する。いずれの方法も、第二変化画像IM2と平均顔テクスチャ画像IM2av(図4を参照)との距離を表す距離スコアを求めるものである。この距離スコアが小さいほど、第二変化画像IM2が元画像OIMから大きく乖離して平均顔テクスチャ画像IM2avに近接していることを意味するため、変化度は大きくなる。すなわち、距離スコアと変化度とは負の相関がある。 Two methods of calculating the degree of change will be described. In both methods, a distance score representing the distance between the second change image IM 2 and the average face texture image IM 2av (see FIG. 4) is obtained. The smaller the distance score is, the larger the degree of change is because the second change image IM 2 is greatly deviated from the original image OIM and close to the average face texture image IM 2av . That is, there is a negative correlation between the distance score and the degree of change.

第一の方法では、第二変化画像IM2の重み係数b2,jの和を距離スコアs1とする。この距離スコアs1は、下式(4)に基づいて算出することができる。 In the first method, the sum of the weighting factors b 2 and j of the second change image IM 2 is set as the distance score s 1 . This distance score s 1 can be calculated based on the following equation (4).

Figure 0005650012
Figure 0005650012

距離スコアを演算する第二の方法は、テクスチャ変化後の第二変化画像IM2の基底ベクトルeの寄与率を考慮した重み係数b2,jの積和を距離スコアs2とする。この距離スコアs2は下式(5)、(6)に基づいて算出することができる。ただし、式(5)中、tおよびuはそれぞれ自然数である。 In the second method for calculating the distance score, the product sum of the weight coefficients b 2 and j considering the contribution ratio of the base vector e of the second changed image IM 2 after the texture change is set as the distance score s 2 . The distance score s 2 can be calculated based on the following expressions (5) and (6). However, in Formula (5), t and u are natural numbers, respectively.

Figure 0005650012
Figure 0005650012

Figure 0005650012
Figure 0005650012

上式(6)で求まるwiは基底ベクトルeの次数ごとの寄与率を表している。この寄与率(任意の重率tを乗じてよい)と、重み係数bの二乗(こちらも任意の重率uを乗じてよい)との積和演算により、距離スコアs2を算出することができる。 W i obtained by the above equation (6) represents a contribution rate for each order of the basis vector e. The distance score s 2 can be calculated by a product-sum operation of this contribution rate (which may be multiplied by an arbitrary weight factor t) and the square of the weighting factor b (which may also be multiplied by an arbitrary weight factor u). it can.

すなわち本方法では、基底ベクトルeの寄与率と重み係数bとの積和演算に基づいて平均顔テクスチャと第二変化画像IM2における顔のテクスチャとの距離を表す距離スコアs2を算出し、算出された距離スコアs2に基づいて変化度を判定してもよい。 That is, in this method, a distance score s 2 representing the distance between the average face texture and the face texture in the second change image IM 2 is calculated based on the product-sum operation of the contribution ratio of the base vector e and the weighting factor b. based on the calculated distance score s 2 may determine the change degree.

かかる距離スコアs2を用いることで、基底ベクトルeの寄与率が強調してテクスチャの変化度が定量化される。このため、第二変化画像IM2の見た目の印象を正確に定量化することができる。 By using the distance score s 2 , the contribution rate of the base vector e is emphasized, and the degree of change in texture is quantified. Therefore, it is possible to accurately quantify the impression of the second change image IM 2 looks.

図10は、第二変化画像IM2を生成する変化画像生成工程S50の詳細を示すフローチャートである。
本実施形態では、変化度算出部52は、基底の最高次から次数を1ずつ減じるたびに(ステップS51)、変化度として距離スコアs2を算出する(ステップS522)。
Figure 10 is a flowchart showing the details of the modification image generation step S50 that generates a second change image IM 2.
In the present embodiment, the degree-of-change calculator 52 calculates the distance score s 2 as the degree of change each time the order is subtracted by 1 from the highest order of the base (step S51) (step S522).

変化度判定部54には、元画像OIMからの変化が自然であると目視される限界を示す官能評価値である自然目視限界が記憶されている。変化度判定部54は、距離スコアs2が自然目視限界よりも小さい場合(ステップS532:YES)には、高次基底を除去する(ステップS54)。 The degree-of-change determination unit 54 stores a natural visual limit that is a sensory evaluation value indicating a limit at which the change from the original image OIM is viewed as natural. When the distance score s 2 is smaller than the natural viewing limit (step S532: YES), the degree of change determination unit 54 removes the higher order basis (step S54).

そして、高次基底が徐々に除去されて基底が元画像OIMから平均顔テクスチャ画像IM2avに近づき距離スコアs2が自然目視限界に達すると(ステップS532:NO)、変化度判定部54は、そのときの基底次数を閾値次数kとして第二変化画像IM2を再構成する(ステップS55)。 Then, when the higher order basis is gradually removed and the basis approaches the average face texture image IM 2av from the original image OIM and the distance score s 2 reaches the natural viewing limit (step S532: NO), the degree-of-change determination unit 54 The second change image IM 2 is reconstructed using the base order at that time as the threshold order k (step S55).

すなわち本方法では、第二の変化軸AX2にかかる重み係数b2,jのうち所定の閾値次数kよりも高次の重み係数b1,m(m=k+1,k+2,k+3,・・・)を低減してモーフィング処理を行う。 That is, in this method, weighting factors b 1, m (m = k + 1, k + 2, k + 3,...) Higher than a predetermined threshold order k among the weighting factors b 2, j applied to the second change axis AX 2. ) To reduce).

このようにして、元画像OIMから自然に見える範囲における最大限度でテクスチャを変化させた第二変化画像IM2が変化画像生成部50で生成される。かかる第二変化画像IM2は出力部70で表示出力される(図1:出力工程S70)。 In this way, the change image generation unit 50 generates the second change image IM 2 in which the texture is changed to the maximum extent within the range that is naturally visible from the original image OIM. The second change image IM 2 is displayed and output by the output unit 70 (FIG. 1: output step S70).

言い換えると、本方法では、変化度が所定の上限値(自然目視限界)を超えないと判定された第二変化画像IM2のうち、閾値次数kがもっとも低い第二変化画像IM2を少なくとも出力する。 In other words, in this method, at least the second change image IM 2 having the lowest threshold order k among the second change images IM 2 determined not to exceed the predetermined upper limit (natural viewing limit) is output. To do.

これにより、被験者の特徴を失わない範囲においてもっともテクスチャを変化させた第二変化画像IM2が出力される。そして、本方法によれば、第一変化画像IM1と第二変化画像IM2が、それぞれ元画像OIMからの自然な見え方が維持された範囲において生成される。このため、重み係数b1,iおよびb2,jを共に変化させた重畳変化画像IMSPに関しても、被験者の特徴を失わずに自然な見え方のものを生成することができる。 As a result, the second changed image IM 2 in which the texture is most changed within the range where the characteristics of the subject are not lost is output. Then, according to this method, the first change image IM 1 is the second variation image IM 2, natural appearance of the original image OIM respectively, are generated in a range maintained. Therefore, with regard weighting coefficients b 1, i and b 2, superimposed changes are both changing the j image IM SP, it is possible to produce what the natural appearance without losing the characteristics of the subject.

図11は、第三実施形態において第一変化画像IM1を生成する変化画像生成工程S50の変形例の詳細を示すフローチャートである。本変形例の変化画像生成工程S50は、美容手段抽出工程S58を含む点で図9に示した第三実施形態と相違する。 FIG. 11 is a flowchart showing details of a modification of the change image generation step S50 for generating the first change image IM 1 in the third embodiment. The change image generation step S50 of this modification is different from the third embodiment shown in FIG. 9 in that it includes a beauty means extraction step S58.

本変形例の顔画像処理装置100は、美容手段記憶部80と美容手段抽出部82とを備えている。美容手段記憶部80は、変化画像(第一変化画像IM1または第二変化画像IM2)における決定因子ごとの変化度と美容手段とが対応づけられた美容手段選択テーブル(図12を参照)を記憶する手段である。美容手段抽出部82は、美容手段記憶部80を参照して、変化画像が示す顔を被験者に実現する美容手段を抽出する手段である。美容手段抽出部82が抽出した美容手段は、対応する変化画像とともに出力部70で出力される。これにより、被験者が希望するような顔形状、テクスチャまたは色となるための美容手段が提示される。 The face image processing apparatus 100 of this modification includes a beauty means storage unit 80 and a beauty means extraction unit 82. The beauty means storage unit 80 is a beauty means selection table in which the degree of change for each determinant in the change image (first change image IM 1 or second change image IM 2 ) is associated with the beauty means (see FIG. 12). Is a means for storing. The beauty means extraction unit 82 refers to the beauty means storage unit 80 and is a means for extracting beauty means for realizing the face indicated by the change image on the subject. The beauty means extracted by the beauty means extraction unit 82 is output by the output unit 70 together with the corresponding change image. Thereby, the beauty means for becoming the face shape, texture or color desired by the subject is presented.

すなわち本変形例は、上記の顔画像処理方法(図1:顔画像取得工程S10から出力工程S70)を用いた美容カウンセリング方法を提供するものである。この美容カウンセリング方法は、化粧料の塗布または美容施術の適用による顔の形状、テクスチャまたは色の変化と、第一変化画像IM1または第二変化画像IM2と、を対応づけて出力することを特徴とする。 That is, the present modification provides a beauty counseling method using the face image processing method (FIG. 1: face image acquisition step S10 to output step S70). In this beauty counseling method, the change in the shape, texture or color of the face due to the application of cosmetics or the application of cosmetic treatment and the first change image IM 1 or the second change image IM 2 are output in association with each other. Features.

より具体的には、本変形例では、元画像OIMのテクスチャを変化させた変化画像(第一変化画像IM1または第二変化画像IM2)を複数枚生成するとともに、被験者の顔が変化画像における顔形状、テクスチャまたは色となるためのについてのカウンセリングを行う。 More specifically, in this modification, a plurality of change images (first change image IM 1 or second change image IM 2 ) obtained by changing the texture of the original image OIM are generated, and the face of the subject is changed. Counseling for face shape, texture, or color.

図12は、美容手段選択テーブルの例を示す図である。この美容手段選択テーブルは、顔形状テーブル、テクスチャテーブルまたは色テーブルから選択された属性データに基づいて顔画像データベース90から抽出されたサンプル画像SIMの母集団ごとに、かつ決定因子の変化量ごとに、美容手段を対応づけたものである。   FIG. 12 is a diagram illustrating an example of a beauty means selection table. This beauty means selection table is for each population of sample images SIM extracted from the face image database 90 based on attribute data selected from the face shape table, texture table, or color table, and for each determinant change amount. , Which is associated with beauty means.

美容手段としては、一種または二種以上の化粧料の選択、化粧料の使用量または使用方法、美容施術の選択などが例示される。
たとえば、顔形状を変化させるための美容手段としては、目を大きく見せるメイク、二重瞼にするための液体糊(二重糊)、小顔マッサージなどが例示される。
顔のテクスチャまたは色を変化させるための美容手段としては、ファンデーションやコンシーラーなどのベースメイクや、ポイントメイクをはじめとする種々の化粧料が挙げられる。
Examples of the beauty means include selection of one or more cosmetics, usage amount or usage of cosmetics, selection of cosmetic treatment, and the like.
For example, as a beauty means for changing the face shape, makeup that makes the eyes look larger, liquid glue (double glue) for making double wrinkles, small face massage, etc. are exemplified.
Examples of beauty means for changing the texture or color of the face include base makeups such as foundations and concealers, and various cosmetics including point makeup.

たとえば、顔形状を変化させた第一変化画像IM1を生成するためのサンプル画像SIMの母集団(日本人の女性を示す属性データf1かつf5の場合は、母集団1)ごとに、顔形状の変化度の程度に応じて美容手段A、B、C、・・・が美容手段選択テーブルに記憶されている。そして、変化画像生成部50が複数枚の第一変化画像IM1を生成するごとに、変化度算出部52が算出した変化度に対応する美容手段を美容手段抽出部82は抽出して出力部70にて提示する。このため、被験者は第一変化画像IM1または第二変化画像IM2として元画像OIMを単に変化させるだけでなく、これを実現する美容手段を具体的に知ることができる。 For example, (in the case of the attribute data f1 and f5 indicates a Japanese woman, the population 1) sample image SIM population to produce a first change image IM 1 of changing the face shape for each face shape The beauty means A, B, C,... Are stored in the beauty means selection table according to the degree of change. Each time the change image generation unit 50 generates a plurality of first change images IM 1 , the beauty means extraction unit 82 extracts the beauty means corresponding to the degree of change calculated by the change degree calculation unit 52 and outputs the beauty means. Present at 70. For this reason, the subject can not only simply change the original image OIM as the first change image IM 1 or the second change image IM 2 , but can specifically know the beauty means that realizes this.

また、本発明の顔画像処理方法は、複数の工程を順番に記載してあるが、その記載の順番は複数の工程を実行する順番やタイミングを限定するものではない。このため、本発明の顔画像処理方法を実施するときには、その複数の工程の順番は内容的に支障のない範囲で変更することができ、また複数の工程の実行タイミングの一部または全部が互いに重複していてもよい。たとえば、上記実施形態では顔画像取得工程S10の後に変化軸設定工程S30および母集団生成工程S34を行う場合を例示したが、これに代えて、変化軸設定工程S30および母集団生成工程S34の後に顔画像取得工程S10を行ってもよい。また、図1では変化画像生成工程S50を繰り返すごとに母集団生成工程S34を行っているが、本発明はこれに限られない。複数の変化軸を予め設定して主成分分析を行ったうえで第一変化画像IM1および第二変化画像IM2を生成してもよい。 Further, the face image processing method of the present invention describes a plurality of steps in order, but the order of description does not limit the order or timing of executing the plurality of steps. For this reason, when carrying out the face image processing method of the present invention, the order of the plurality of steps can be changed within a range that does not hinder the contents, and some or all of the execution timings of the plurality of steps are mutually connected. It may be duplicated. For example, in the above embodiment, the case where the change axis setting step S30 and the population generation step S34 are performed after the face image acquisition step S10 is exemplified, but instead, after the change axis setting step S30 and the population generation step S34. You may perform face image acquisition process S10. In FIG. 1, the population generation step S34 is performed every time the change image generation step S50 is repeated, but the present invention is not limited to this. The first change image IM 1 and the second change image IM 2 may be generated after performing principal component analysis by setting a plurality of change axes in advance.

10 撮像部
12 規格化部
20 条件入力部
40 主成分分析部
50 変化画像生成部
52 変化度算出部
54 変化度判定部
60 抽出部
70 出力部
80 美容手段記憶部
82 美容手段抽出部
90 顔画像データベース
92 基底記憶部
95 バス
100 顔画像処理装置
DESCRIPTION OF SYMBOLS 10 Imaging part 12 Normalization part 20 Condition input part 40 Principal component analysis part 50 Change image generation part 52 Change degree calculation part 54 Change degree determination part 60 Extraction part 70 Output part 80 Beauty means memory | storage part 82 Beauty means extraction part 90 Face image Database 92 Base storage unit 95 Bus 100 Face image processing device

Claims (14)

複数のサンプル画像を含む顔画像データベースから一部のサンプル画像を抽出して母集団を生成し、
前記母集団から複数次の基底ベクトルを算出し、
顔の少なくとも一部が撮像された顔画像に関して、前記顔の形状、テクスチャまたは色より選択(重複選択を含む)された少なくとも第一の変化軸および前記顔のテクスチャを示す第二の変化軸についてそれぞれ主成分分析して前記複数次の基底ベクトルの重み係数を算出し、
前記第一の変化軸にかかる前記重み係数を変更した第一変化画像を生成し
前記第二の変化軸にかかる前記重み係数のうち閾値次数よりも高次の重み係数を低減、前記母集団に属するサンプル画像の顔のテクスチャを平均した平均顔テクスチャに向かって前記顔画像をモーフィング処理して第二変化画像を生成し、
前記第一変化画像と前記第二変化画像とを互いに対比して出力する
ことを含み、
前記第二変化画像の生成は、
前記算出された重み係数に基づいて前記モーフィング処理によるテクスチャの変化度を判定し、
前記変化度に基づいて前記閾値次数を変更する、
ことを含み、変更された閾値次数に基づいて前記第二変化画像を再構成する、
ことを特徴とする顔画像処理方法。
Generate a population by extracting some sample images from a face image database containing multiple sample images,
Calculating a multi-order basis vector from the population;
Regarding at least a first change axis selected from the face shape, texture or color (including overlapping selection) and a second change axis indicating the texture of the face with respect to a face image in which at least a part of the face is captured each principal component analysis to calculate the weighting coefficients of the plurality next basis vector,
Generating a first change image in which the weighting coefficient applied to the first change axis is changed;
The weighting coefficient higher than a threshold order among the weighting coefficients applied to the second change axis is reduced, and the face image is moved toward an average face texture obtained by averaging the face textures of the sample images belonging to the population. It generates a second change picture image by morphing process,
Outputting the first change image and the second change image in comparison with each other ;
Including
The generation of the second change image is as follows:
Determining the degree of texture change due to the morphing process based on the calculated weighting factor;
Changing the threshold order based on the degree of change;
Reconstructing the second change image based on the changed threshold order,
A face image processing method characterized by the above.
前記第一の変化軸および前記第二の変化軸にかかる前記重み係数をそれぞれ多段階に変更した重畳変化画像を生成し、前記第一変化画像または前記第二変化画像と対比して前記重畳変化画像をさらに出力することを特徴とする請求項1に記載の顔画像処理方法。   A superimposed change image is generated by changing the weighting coefficients applied to the first change axis and the second change axis in multiple stages, and the overlap change is compared with the first change image or the second change image. The face image processing method according to claim 1, further comprising outputting an image. 前記第一の変化軸が前記顔の形状であり、前記母集団に属する前記サンプル画像の顔の形状を平均した平均顔形状に向かって前記顔画像をワーピング処理して前記第一変化画像を生成する請求項1又は2に記載の顔画像処理方法。 The first change axis is the face shape, and the face image is warped toward an average face shape obtained by averaging the face shapes of the sample images belonging to the population to generate the first change image. The face image processing method according to claim 1 or 2 . 前記第一の変化軸にかかる前記重み係数のうち所定の閾値次数よりも高次の前記重み係数を低減して前記ワーピング処理を行う請求項に記載の顔画像処理方法。 The face image processing method according to claim 3 , wherein the warping process is performed by reducing the weighting coefficient higher than a predetermined threshold order among the weighting coefficients applied to the first change axis. 前記第一の変化軸が前記顔の大局的な見た目の印象を表す第一のテクスチャであり、
前記第二の変化軸が前記顔の質感を表す第二のテクスチャであ
前記第一変化画像の生成は、
前記第一の変化軸にかかる前記重み係数のうち前記第一の変化軸の閾値次数よりも高次の重み係数を低減し、前記母集団に属するサンプル画像の顔のテクスチャを平均した平均顔テクスチャに向かって前記顔画像をモーフィング処理して前記第一変化画像を生成し、
前記第一の変化軸にかかる前記重み係数に基づいて前記モーフィング処理によるテクスチャの変化度を判定し、
前記変化度に基づいて前記第一の変化軸の前記閾値次数を変更し、
前記変更された閾値次数に基づいて前記第一変化画像を再構成する、
ことを含む、
請求項1又は2に記載の顔画像処理方法。
The first change axis is a first texture representing a global appearance impression of the face,
Ri second texture der that the second change-axis represents the texture of the face,
The first change image is generated by
Average than said threshold value order of the first change-axis of the first said weighting coefficient according to the change axis of reducing the weighting coefficients of higher order, the average texture of the face of Rusa sample images that belong to the population the facial image toward the face texture and morphing process to generate the first changing picture image,
Determining the degree of texture change due to the morphing process based on the weighting factor applied to the first change axis;
Changing the threshold order of the first change axis based on the degree of change;
Reconstructing the first change image based on the changed threshold order;
Including that,
The face image processing method according to claim 1 or 2 .
前記顔画像データベースは、質感が異なる複数通りの化粧方法をそれぞれ施した顔が撮像された前記サンプル画像を含み、
前記複数通りから前記化粧方法を選択して前記母集団を生成する
請求項1から5のいずれか1項に記載の顔画像処理方法。
The face image database includes the sample images obtained by imaging faces each subjected to a plurality of makeup methods with different textures,
Selecting the makeup method from the plurality of ways to generate the population ;
The face image processing method according to any one of claims 1 to 5 .
前記変化度が所定の上限値を超えないと判定された前記第二変化画像のうち、前記閾値次数がもっとも低い前記第二変化画像を少なくとも出力する請求項1から6のいずれか1項に記載の顔画像処理方法。 Said change degree of the determination by said second change image does not exceed a predetermined upper limit value, according to any one of 6 claim 1 wherein the threshold degree is at least outputs the lowest said second change image Face image processing method. 前記基底ベクトルの寄与率と前記重み係数との積和演算に基づいて前記平均顔テクスチャと前記第二変化画像における前記顔のテクスチャとの距離を表す距離スコアを算出し、
算出された前記距離スコアに基づいて前記変化度を判定する
ことを特徴とする請求項1から7のいずれか一項に記載の顔画像処理方法。
Calculating a distance score representing a distance between the average face texture and the facial texture in the second change image based on a product-sum operation of the contribution ratio of the basis vector and the weighting factor;
Determining the degree of change based on the calculated distance score ;
The face image processing method according to claim 1, wherein
請求項1からのいずれか一項に記載の顔画像処理方法を用いた美容カウンセリング方法であって、
化粧料の塗布または美容施術の適用による顔の形状、テクスチャまたは色の変化と、前記第一変化画像または前記第二変化画像と、を対応づけて出力することを特徴とする美容カウンセリング方法。
A beauty counseling method using the face image processing method according to any one of claims 1 to 8 ,
A beauty counseling method comprising: outputting a change in shape, texture or color of a face by applying cosmetics or applying a cosmetic treatment, and the first change image or the second change image in association with each other.
複数のサンプル画像を格納する顔画像データベースと、
サンプル画像を抽出する条件の入力を受け付ける条件入力手段と、
受け付けた前記条件に従って前記顔画像データベースから前記サンプル画像を抽出して母集団を生成する抽出手段と、
前記母集団から複数次の基底ベクトルを算出し、顔の少なくとも一部が撮像された顔画像に関して、前記顔の形状、テクスチャまたは色より選択(重複選択を含む)された少なくとも第一の変化軸および前記顔のテクスチャを示す第二の変化軸についてそれぞれ主成分分析して前記複数次の基底ベクトルの重み係数を算出する主成分分析手段と、
前記第一の変化軸にかかる前記重み係数を変更した第一変化画像を生成し、前記第二の変化軸にかかる前記重み係数のうち閾値次数よりも高次の重み係数低減、前記母集団に属する前記サンプル画像の顔のテクスチャを平均した平均顔テクスチャに向かって前記顔画像をモーフィング処理して第二変化画像を生成する変化画像生成手段と、
前記算出された重み係数に基づいて前記モーフィング処理によるテクスチャの変化度を算出する変化度算出手段と、
前記変化度に基づいて前記閾値次数を変更する変化度判定手段と、
前記第一変化画像と前記第二変化画像とを互いに対比して出力する画像出力手段と、
備え、
前記変化画像生成手段は、前記変更された閾値次数に基づいて前記第二変化画像を再構成する、
顔画像処理装置。
A face image database for storing a plurality of sample images;
Condition input means for receiving input of conditions for extracting sample images;
Extracting means for generating a population by extracting the sample image from the face image database according to the received condition;
A plurality of basis vectors are calculated from the population, and at least a first change axis selected (including overlapping selection) from the shape, texture, or color of the face with respect to a face image obtained by capturing at least a part of the face. a principal component analysis means for calculating the weighting coefficients of the plurality next basis vectors and each principal component analysis for the second change-axis indicating the texture of the face,
Wherein said weighting coefficient according to the first change-axis to generate a first change image changing, to reduce the weight coefficients of higher order than the threshold degree of the weighting coefficients according to the second variation axis, said base and it changes the image generating means for generating a second change picture image by morphing processing the facial image toward the average face texture obtained by averaging the texture of the face of the sample images that belong to the group,
A degree-of-change calculating means for calculating a degree of change in texture due to the morphing process based on the calculated weighting factor;
A degree-of-change determination means for changing the threshold order based on the degree of change;
Image output means for comparing and outputting the first change image and the second change image;
Equipped with a,
The change image generation means reconstructs the second change image based on the changed threshold order;
Face image processing device.
前記顔画像データベースに格納された複数枚の前記サンプル画像は、目、鼻および口の位置が規格化されている請求項10に記載の顔画像処理装置。 The face image processing device according to claim 10 , wherein the plurality of sample images stored in the face image database have standardized positions of eyes, nose and mouth. 前記第一の変化軸が前記顔の形状であり、  The first axis of change is the shape of the face;
前記変化画像生成手段は、前記母集団に属する前記サンプル画像の顔の形状を平均した平均顔形状に向かって前記顔画像をワーピング処理して前記第一変化画像を生成する、  The change image generation means generates the first change image by warping the face image toward an average face shape obtained by averaging the face shapes of the sample images belonging to the population.
請求項10又は11に記載の顔画像処理装置。  The face image processing apparatus according to claim 10 or 11.
前記変化画像生成手段は、前記第一の変化軸にかかる前記重み係数のうち閾値次数よりも高次の前記重み係数を低減して前記ワーピング処理を行う、  The change image generation means performs the warping process by reducing the weighting coefficient higher than a threshold order among the weighting coefficients applied to the first change axis.
請求項12に記載の顔画像処理装置。  The face image processing apparatus according to claim 12.
前記第一の変化軸が前記顔の大局的な見た目の印象を表す第一のテクスチャであり、  The first change axis is a first texture representing a global appearance impression of the face,
前記第二の変化軸が前記顔の質感を表す第二のテクスチャであり、  The second change axis is a second texture representing the texture of the face;
前記変化画像生成手段は、前記第一の変化軸にかかる前記重み係数のうち前記第一の変化軸の閾値次数よりも高次の重み係数を低減し、前記母集団に属する前記サンプル画像の顔のテクスチャを平均した平均顔テクスチャに向かって前記顔画像をモーフィング処理して前記第一変化画像を生成し、  The change image generation unit reduces a weight coefficient higher than a threshold order of the first change axis among the weight coefficients applied to the first change axis, and the face of the sample image belonging to the population The first change image is generated by morphing the face image toward an average face texture obtained by averaging the textures of
前記変化度算出手段は、前記第一の変化軸にかかる前記重み係数に基づいて前記モーフィング処理によるテクスチャの変化度を算出し、  The degree-of-change calculating means calculates a degree of change in texture due to the morphing process based on the weighting factor applied to the first change axis,
前記変化度判定手段は、前記変化度に基づいて前記第一の変化軸の前記閾値次数を変更し、  The change degree determination means changes the threshold order of the first change axis based on the change degree,
前記変化画像生成手段は、前記変更された閾値次数に基づいて前記第一変化画像を再構成する、  The change image generation means reconstructs the first change image based on the changed threshold order;
請求項10又は11に記載の顔画像処理装置。  The face image processing apparatus according to claim 10 or 11.
JP2011040681A 2011-02-25 2011-02-25 Facial image processing method, beauty counseling method, and facial image processing apparatus Active JP5650012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040681A JP5650012B2 (en) 2011-02-25 2011-02-25 Facial image processing method, beauty counseling method, and facial image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040681A JP5650012B2 (en) 2011-02-25 2011-02-25 Facial image processing method, beauty counseling method, and facial image processing apparatus

Publications (2)

Publication Number Publication Date
JP2012178045A JP2012178045A (en) 2012-09-13
JP5650012B2 true JP5650012B2 (en) 2015-01-07

Family

ID=46979847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040681A Active JP5650012B2 (en) 2011-02-25 2011-02-25 Facial image processing method, beauty counseling method, and facial image processing apparatus

Country Status (1)

Country Link
JP (1) JP5650012B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056980A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation device, skin evaluation method, and skin evaluation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6260146B2 (en) * 2013-08-28 2018-01-17 株式会社豊田中央研究所 Shape state estimation device, shape model generation device, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2353451B (en) * 1999-08-20 2003-09-10 Univ London Morphing of an object using the morphological behaviour of another object
EP1705611A1 (en) * 2004-01-13 2006-09-27 NEC Corporation Feature change image creation method, feature change image creation device, and feature change image creation program
JP5095182B2 (en) * 2005-12-01 2012-12-12 株式会社 資生堂 Face classification device, face classification program, and recording medium on which the program is recorded
JP5035524B2 (en) * 2007-04-26 2012-09-26 花王株式会社 Facial image composition method and composition apparatus
JP5290585B2 (en) * 2008-01-17 2013-09-18 株式会社 資生堂 Skin color evaluation method, skin color evaluation device, skin color evaluation program, and recording medium on which the program is recorded

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017056980A1 (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation device, skin evaluation method, and skin evaluation program
JP2017063904A (en) * 2015-09-29 2017-04-06 富士フイルム株式会社 Skin evaluation apparatus, skin evaluation method, and skin evaluation program
CN108135346A (en) * 2015-09-29 2018-06-08 富士胶片株式会社 Abrasive article, nonwoven abrasive article and skin evaluation program
US10964062B2 (en) 2015-09-29 2021-03-30 Fujifilm Corporation Skin evaluation device, skin evaluation method, and skin evaluation program
CN108135346B (en) * 2015-09-29 2021-04-20 富士胶片株式会社 Skin evaluation device, skin evaluation method, and recording medium

Also Published As

Publication number Publication date
JP2012178045A (en) 2012-09-13

Similar Documents

Publication Publication Date Title
JP6985403B2 (en) Methods for age appearance simulation
Kolkin et al. Style transfer by relaxed optimal transport and self-similarity
JP5231685B1 (en) Facial impression analysis method, beauty counseling method and face image generation method
US10614623B2 (en) Methods and apparatuses for age appearance simulation
JP6128309B2 (en) Makeup support device, makeup support method, and makeup support program
WO2013078404A1 (en) Perceptual rating of digital image retouching
JP2007128171A (en) Face image synthesizer, face image synthesizing method and face image synthesizing program
CN111950430A (en) Color texture based multi-scale makeup style difference measurement and migration method and system
Tsai et al. Human face aging with guided prediction and detail synthesis
CN110853119A (en) Robust reference picture-based makeup migration method
JP5651385B2 (en) Face evaluation method
JP5035524B2 (en) Facial image composition method and composition apparatus
JP3920747B2 (en) Image processing device
Bastanfard et al. Toward anthropometrics simulation of face rejuvenation and skin cosmetic
CN113344837B (en) Face image processing method and device, computer readable storage medium and terminal
Martin et al. Face aging simulation with a new wrinkle oriented active appearance model
JP5650012B2 (en) Facial image processing method, beauty counseling method, and facial image processing apparatus
JP5095182B2 (en) Face classification device, face classification program, and recording medium on which the program is recorded
JP4893968B2 (en) How to compose face images
US11645813B2 (en) Techniques for sculpting digital faces based on anatomical modeling
Liang et al. Facial skin beautification using region-aware mask
WO2020085922A1 (en) Digital character blending and generation system and method
Lai et al. Novel approach to neural network based caricature generation
JP4088081B2 (en) Evaluation method of skin condition
Yang et al. A learning-based system for generating exaggerative caricature from face images with expression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141112

R151 Written notification of patent or utility model registration

Ref document number: 5650012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250