JP7429683B2 - Method for determining temporal change characteristics of facial surface texture - Google Patents

Method for determining temporal change characteristics of facial surface texture Download PDF

Info

Publication number
JP7429683B2
JP7429683B2 JP2021207385A JP2021207385A JP7429683B2 JP 7429683 B2 JP7429683 B2 JP 7429683B2 JP 2021207385 A JP2021207385 A JP 2021207385A JP 2021207385 A JP2021207385 A JP 2021207385A JP 7429683 B2 JP7429683 B2 JP 7429683B2
Authority
JP
Japan
Prior art keywords
cluster
time
temporal change
varying
surface texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021207385A
Other languages
Japanese (ja)
Other versions
JP2023092254A (en
Inventor
浩治 南
健雄 今井
崇訓 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2021207385A priority Critical patent/JP7429683B2/en
Publication of JP2023092254A publication Critical patent/JP2023092254A/en
Application granted granted Critical
Publication of JP7429683B2 publication Critical patent/JP7429683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、機械学習により得られる学習済みモデル及び顔画像データを用いて、人の顔表面テクスチャの経時変化を予測分析する技術に関する。 The present invention relates to a technique for predicting and analyzing changes in human facial surface texture over time using a trained model obtained by machine learning and facial image data.

下記特許文献1には、対象者の顔の画像とその顔と比較するための各年齢層の代表的な顔の画像とを表示して、両者の見た目の比較結果に基づいて対象者の見た目の年齢層を算出する技術が開示されている。
下記特許文献2には、対象者の顔画像データから空間周波数の強度を算出して、その空間周波数の強度と年齢との相関関係に基づいて対象者の推定年齢を算出する技術が開示されている。
下記特許文献3には、機械学習により得られた学習済みモデルを用いて加齢化を予測する手法が開示されている。当該学習済みモデルは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、二次元画像から三次元データを予測する三次元化予測モデルとを含む。この手法は、対象画像の特徴点を抽出し、抽出した特徴点を用いて対象画像における顔向きを推定し、三次元化予測モデル及び推定した顔向きに基づいて第1の三次元データを生成し、形状加齢モデルを用いて第1の三次元データから第2の三次元データを生成し、第1の三次元データに基づいて生成された二次元画像に対してテクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、第2の三次元データに対して加齢化テクスチャを合成して、加齢化顔モデルを生成する。
In Patent Document 1 listed below, an image of a target person's face and a representative face image of each age group for comparison with that face are displayed, and the target person's appearance is determined based on the comparison result of the two appearances. A technique for calculating the age group of people is disclosed.
Patent Document 2 listed below discloses a technique for calculating the intensity of a spatial frequency from face image data of a subject and calculating the estimated age of the subject based on the correlation between the intensity of the spatial frequency and the age. There is.
Patent Document 3 listed below discloses a method of predicting aging using a trained model obtained by machine learning. The trained models include a shape aging model that predicts age-related changes in facial shape, a texture aging model that predicts age-related changes in facial surface texture, and a texture aging model that predicts 3D data from 2D images. A three-dimensional prediction model is included. This method extracts feature points from the target image, estimates the face orientation in the target image using the extracted feature points, and generates first 3D data based on the 3D prediction model and the estimated face orientation. Then, the shape aging model is used to generate second 3D data from the first 3D data, and the texture aging model is applied to the 2D image generated based on the first 3D data. Then, an aging texture is generated, and the aging texture is synthesized with the second three-dimensional data to generate an aging face model.

特開2021-71888号公報JP2021-71888A 国際公開第2011/162050号公報International Publication No. 2011/162050 特開2016-194892号公報Japanese Patent Application Publication No. 2016-194892

顔印象が加齢により変化していくことについて漠然と不安を抱いている人々は多い。
一方で、顔印象の変化は顔表面テクスチャの変化に起因しており、顔印象の加齢変化の傾向は人によって異なる。
このため、各個人が自身の顔表面テクスチャの今後の変化傾向を具体的に知ることができるようにすることは美容の観点でとても重要である。
Many people are vaguely concerned about how their facial impressions change as they age.
On the other hand, changes in facial impressions are caused by changes in facial surface texture, and the tendency for facial impressions to change with age differs from person to person.
Therefore, it is very important from the viewpoint of beauty to enable each individual to specifically know the future change trend of his or her own facial surface texture.

本発明は、各個人の顔表面テクスチャの経時変化傾向を具体的に示し得る技術を提供する。
本明細書で「顔表面テクスチャ」とは、顔の肌の表面又は内部に由来する空間分布特徴に相当するものである。「顔表面テクスチャ」の例として、シミ、ソバカス、色素班、肝斑、赤みムラ、クマ、くすみ等の肌の色ムラに関わる特徴、シワ、たるみ、毛穴等の肌の表面の凹凸やそれの陰影に関わる特徴、肌の光沢或いは鱗屑、縮緬ジワ等の表面粗さの偏在やそれによる明暗に関わる特徴といった顔表面の空間的分布を生み出す特徴が挙げられる。
The present invention provides a technique that can specifically show trends in changes over time in facial surface texture of each individual.
As used herein, "facial surface texture" corresponds to spatial distribution characteristics originating from the surface or inside of facial skin. Examples of "facial surface texture" include features related to uneven skin tone such as spots, freckles, pigment spots, melasma, uneven redness, dark circles, and dullness, as well as irregularities on the skin surface such as wrinkles, sagging, and pores. Features that create the spatial distribution of the facial surface include features related to shadows, uneven distribution of surface roughness such as skin gloss or scales, crepe wrinkles, and characteristics related to brightness and darkness.

本発明によれば、経時変化前後の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって、入力顔画像データの顔表面テクスチャの経時変化特徴量を算出可能な学習済みモデルを利用することができる一以上のプロセッサが、対象者の顔画像データを取得するデータ取得工程と、前記取得された顔画像データに基づいて前記学習済みモデルにより算出された前記対象者の顔表面テクスチャの経時変化特徴量を取得する特徴量取得工程と、前記取得された経時変化特徴量の次元数を複数段階で圧縮して二次元の経時変化特徴量とする次元圧縮工程と、母集団の顔画像データ群に関して予め取得された顔表面テクスチャの二次元の経時変化特徴量の分布情報に基づいて、前記次元圧縮工程で二次元に圧縮された前記対象者の前記経時変化特徴量に対してクラスタ判定を行うことにより、前記対象者の顔表面テクスチャの経時変化傾向を示す経時変化特性タイプを特定するタイプ特定工程と、を実行し、前記特定される経時変化特性タイプは、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少によりそれぞれ特徴付けられる複数の経時変化特性タイプの中の一つであり、前記クラスタ判定は、前記分布情報に基づく複数のクラスタであって相互に異なる前記経時変化特性タイプがそれぞれ対応付けられた複数のクラスタの中から、前記対象者の前記経時変化特徴量に対応するクラスタを判定し、前記タイプ特定工程では、前記判定されたクラスタに対応する経時変化特性タイプを特定する顔表面テクスチャの経時変化特性判定方法が提供される。
また、本発明によれば、前記学習済みモデルを利用可能な装置であって、前記経時変化特性判定方法を実行可能な経時変化特性判定装置が提供される。また、前記前記経時変化特性判定方法をコンピュータに実行させるプログラムも提供可能であるし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体も提供可能である。この記録媒体は、非一時的な有形の媒体を含む。
According to the present invention, a trained model is obtained by machine learning using training data including a plurality of face image data sets before and after changes over time, and calculates changes over time feature values of facial surface texture of input face image data. a data acquisition step in which one or more processors capable of utilizing possible trained models acquire facial image data of a subject; a feature amount acquisition step of acquiring a time-varying feature amount of the subject's facial surface texture; and a dimension compression step of compressing the number of dimensions of the acquired time-varying feature amount in multiple stages to obtain a two-dimensional time-varying feature amount. and the temporal change of the subject compressed into two dimensions in the dimension compression step based on the distribution information of the two-dimensional temporal change feature amount of the facial surface texture obtained in advance with respect to the face image data group of the population. a type identifying step of specifying a time-varying characteristic type that indicates a tendency of the facial surface texture of the subject to change over time by performing cluster determination on the feature amounts, and the identified time-varying characteristic type is , is one of a plurality of temporal change characteristic types each characterized by a degree of local change and a degree of global change in facial surface texture, and the cluster determination is performed by determining a plurality of clusters based on the distribution information. A cluster corresponding to the temporal change characteristic amount of the subject is determined from among a plurality of clusters in which the mutually different temporal change characteristic types are respectively associated, and in the type identification step, the cluster corresponding to the temporal change characteristic amount of the subject is determined. A method for determining a temporal change characteristic of a facial surface texture is provided, which identifies a temporal change characteristic type corresponding to a cluster.
Further, according to the present invention, there is provided a temporal change characteristic determination device that can utilize the learned model and can execute the temporal change characteristic determination method. Furthermore, it is also possible to provide a program that causes a computer to execute the method for determining characteristics over time, and a computer-readable recording medium on which such a program is recorded can also be provided. This recording medium includes non-transitory tangible media.

上記態様によれば、各個人の顔表面テクスチャの今後の変化傾向を具体的に示し得る技術を提供することができる。 According to the above aspect, it is possible to provide a technique that can specifically indicate future change trends in the facial surface texture of each individual.

本実施形態に係る顔表面テクスチャの経時変化特性判定方法を実行可能な情報処理装置のハードウェア構成例を概念的に示す図である。1 is a diagram conceptually illustrating an example of a hardware configuration of an information processing device capable of executing a method for determining a temporal change characteristic of facial surface texture according to an embodiment of the present invention; 第一実施形態に係る顔表面テクスチャの経時変化特性判定方法の処理の流れを示す図である。FIG. 3 is a diagram illustrating a process flow of a method for determining temporal change characteristics of facial surface texture according to the first embodiment. 実施例における10次元の経時変化成分スコアに対する主成分分析の適用結果を示すグラフである。It is a graph which shows the application result of the principal component analysis to the 10-dimensional time-varying component score in an Example. 実施例における2次元の経時変化成分スコアの分布を示すグラフである。It is a graph showing the distribution of two-dimensional time-varying component scores in an example. 実施例における2次元の経時変化成分スコアの分布のクラスタリングを示すグラフである。It is a graph showing clustering of the distribution of two-dimensional time-varying component scores in an example. 実施例における3つクラスタの年代分布を示すグラフである。It is a graph showing the age distribution of three clusters in an example. 実施例における2次元の経時変化成分スコアの分布の判別式を示すグラフである。It is a graph which shows the discriminant of the distribution of two-dimensional time-varying component scores in an example. 実施例における2次元の経時変化成分スコアの分布の一部とその経時変化成分スコアの第一主成分の特徴を表す画像を示す図である。It is a figure showing a part of distribution of two-dimensional time-varying component scores in an example, and an image showing the characteristics of the first principal component of the time-varying component scores. 実施例における2次元の経時変化成分スコアの分布の一部とその経時変化成分スコアの第二主成分の特徴を表す画像を示す図である。It is a figure which shows a part of distribution of a two-dimensional time-varying component score in an Example, and the image showing the characteristic of the second principal component of the time-varying component score.

以下、本発明の好ましい実施形態の例(以降、本実施形態と表記する)について説明する。なお、以下に説明する本実施形態は例示であり、本発明は以下に挙げる構成に限定されない。 Hereinafter, an example of a preferred embodiment of the present invention (hereinafter referred to as the present embodiment) will be described. Note that this embodiment described below is an example, and the present invention is not limited to the configurations listed below.

〔ハードウェア構成例〕
本実施形態に係る顔表面テクスチャの経時変化特性判定方法(以下、本方法と表記する)は、一台以上の情報処理装置が備える一以上のプロセッサにより実行される。
図1は、本方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよい。
[Hardware configuration example]
A method for determining temporal change characteristics of facial surface texture (hereinafter referred to as the present method) according to the present embodiment is executed by one or more processors included in one or more information processing apparatuses.
FIG. 1 is a diagram conceptually showing an example of the hardware configuration of an information processing apparatus 10 that can execute this method.
The information processing device 10 is a so-called computer, and includes a CPU 11, a memory 12, an input/output interface (I/F) 13, a communication unit 14, and the like. The information processing device 10 may be a stationary PC (Personal Computer), a portable PC, a smartphone, a tablet, or other mobile terminal.

CPU11は、いわゆるプロセッサであり、一般的なCPU(Central Processing Unit)に加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれ得る。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
The CPU 11 is a so-called processor, and may include, in addition to a general CPU (Central Processing Unit), an application-specific integrated circuit (ASIC), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), and the like. The memory 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (hard disk, etc.).
The input/output I/F 13 can be connected to user interface devices such as the display device 15 and the input device 16. The display device 15 is a device, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display, that displays a screen corresponding to drawing data processed by the CPU 11 or the like. The input device 16 is a device such as a keyboard, a mouse, etc. that receives user operation input. The display device 15 and the input device 16 may be integrated and realized as a touch panel.
The communication unit 14 communicates with other computers via a communication network and exchanges signals with other devices such as printers. A portable recording medium or the like may also be connected to the communication unit 14.

情報処理装置10のハードウェア構成は、図1の例に制限されない。情報処理装置10は、図示されていない他のハードウェア要素を含んでもよい。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、情報処理装置10は、複数のCPU11を有していてもよい。また、情報処理装置10は、複数の筐体からなる複数台のコンピュータにより実現されていてもよい。 The hardware configuration of the information processing device 10 is not limited to the example shown in FIG. Information processing device 10 may include other hardware elements not shown. Further, the number of each hardware element is not limited to the example of FIG. 1 either. For example, the information processing device 10 may include multiple CPUs 11. Further, the information processing device 10 may be realized by a plurality of computers each having a plurality of housings.

情報処理装置10は、CPU11によりメモリ12に格納されたコンピュータプログラムが実行されることにより、本方法を実行することができる。また、CPU11がメモリ12に格納されたコンピュータプログラムの実行を通じて本方法を実行することができると表記することもできる。このコンピュータプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納される。 The information processing device 10 can execute this method by having the CPU 11 execute a computer program stored in the memory 12. It can also be stated that the CPU 11 can perform the method through execution of a computer program stored in the memory 12. This computer program is installed via the input/output I/F 13 or the communication unit 14 from a portable recording medium such as a CD (Compact Disc), a memory card, etc. or from another computer on the network, and is stored in the memory 12. be done.

情報処理装置10(CPU11)は、教師データを用いた機械学習により得られた学習済みモデルを利用可能である。
ここでの「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
本実施形態で利用される学習済みモデルは、回帰分析で得られる回帰式であってもよいし、主成分分析や、ディープラーニング(深層学習)等で得られるニューラルネットワークモデルであってもよく、そのモデルのデータ構造や学習アルゴリズム等は限定されない。例えば、当該学習済みモデルは、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより実現される。学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
The information processing device 10 (CPU 11) can use a trained model obtained by machine learning using teacher data.
The "trained model" here is a model obtained by machine learning using teacher data, that is, supervised learning, and is expressed as an AI (Artificial Intelligence) model, Machine Learning (ML) model, etc. It is possible.
The trained model used in this embodiment may be a regression equation obtained by regression analysis, or may be a neural network model obtained by principal component analysis, deep learning, etc. The data structure, learning algorithm, etc. of the model are not limited. For example, the trained model is realized by a combination of a computer program and a parameter, a combination of a plurality of functions and parameters, or the like. When a trained model is constructed using a neural network, and the input layer, intermediate layer, and output layer are considered as units of one neural network, the trained model may refer to one neural network, or it may refer to multiple neural networks. It may also refer to a combination of neural networks. Further, the trained model may be configured by a combination of multiple regression equations, or may be configured by one multiple regression equation.
The trained model may be stored in the memory 12 within the information processing device 10, or may be stored in the memory of another computer that the information processing device 10 can access via communication.

このように情報処理装置10は、学習済みモデルを利用可能な装置であって顔表面テクスチャの経時変化特性判定方法を実行可能な経時変化特性判定装置と表記可能である。
以降、本方法で利用される学習済みモデルは、AIモデルと表記される。また、以降の説明では、本方法の実行主体をCPU11として説明する。
In this way, the information processing device 10 can be described as a device that can use a trained model and can execute a method for determining a temporal change characteristic of facial surface texture.
Hereinafter, the trained model used in this method will be referred to as an AI model. Furthermore, in the following description, the CPU 11 will be described as the main body that executes this method.

〔顔表面テクスチャの経時変化特性判定方法〕
以下、本方法の詳細について図2を用いて説明する。図2は、本実施形態に係る顔表面テクスチャの経時変化特性判定方法の処理の流れを示す図である。
[Method for determining temporal change characteristics of facial surface texture]
The details of this method will be explained below using FIG. 2. FIG. 2 is a diagram showing the processing flow of the method for determining temporal change characteristics of facial surface texture according to the present embodiment.

本実施形態で利用されるAIモデルは、経時変化前後の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって、入力顔画像データの顔表面テクスチャの経時変化特徴量を算出可能である。
ここで「顔画像データの顔表面テクスチャの経時変化特徴量」とは、顔画像データに写る人顔の顔表面テクスチャがその人顔を撮像した時から所定時間或いは所定期間経過するまでの間にどのような変化をするのか、その変化の特徴を示す情報である。
当該経時変化特徴量は、例えば、入力顔画像データに写る人顔の顔表面テクスチャ情報と、その入力顔画像データから当該AIモデルにより予測される所定時間或いは所定期間(例えば、数時間、数日、数週間、数年等)経過した後の顔表面テクスチャ情報との差分により算出可能である。但し、経時変化特徴量の具体的データ形式やデータ内容は何ら制限されない。
顔表面テクスチャ情報は、顔表面テクスチャを示す情報であればよく、画素毎の画素値の集合である画像データであってもよいし、画像データ以外の書式のデータであってもよい。本実施形態では、画像データに対する主成分分析により符号化された主成分スコアが当該顔表面テクスチャ情報として利用される。主成分スコアは、主成分分析で得られる低次から高次の特徴ベクトル(固有顔)の重みを示す数値群である。主成分スコアの次元数は、AIモデルの機械学習で利用される教師データの数に依存するため、大きいことが好ましいが、データ量が画像データ形式よりも大きくならないように抑制されることが望まれる。このため、主成分スコアの次元数は、例えば、50次元、100次元等とされる。
The AI model used in this embodiment is a trained model obtained by machine learning using training data that includes multiple face image datasets before and after changes over time, and is a trained model that is obtained by machine learning using training data that includes multiple face image data sets before and after changes over time. It is possible to calculate the change feature amount.
Here, "time-varying characteristic amount of facial surface texture of facial image data" means that the facial surface texture of a human face reflected in facial image data changes over time from when the human face is imaged until a predetermined time or a predetermined period has elapsed. This is information that shows what kind of change will occur and the characteristics of that change.
The time-varying feature amount is, for example, facial surface texture information of a human face reflected in input facial image data, and a predetermined period of time or a predetermined period (for example, several hours or several days) predicted by the AI model from the input facial image data. , several weeks, several years, etc.). However, there are no restrictions on the specific data format or data content of the temporal change feature amount.
The facial surface texture information may be information indicating facial surface texture, and may be image data that is a set of pixel values for each pixel, or may be data in a format other than image data. In this embodiment, principal component scores encoded by principal component analysis of image data are used as the facial surface texture information. The principal component score is a group of numerical values indicating the weights of low- to high-order feature vectors (eigenfaces) obtained by principal component analysis. The number of dimensions of the principal component score depends on the number of training data used in machine learning of the AI model, so it is preferably large, but it is desirable to suppress the amount of data so that it does not become larger than the image data format. It will be done. Therefore, the number of dimensions of the principal component score is, for example, 50 dimensions, 100 dimensions, etc.

本実施形態におけるAIモデルは、入力顔画像データからそれに写る人顔の顔表面テクスチャの主成分スコアを算出し、機械学習された予測変換行列を用いてその主成分スコアからその人顔の所定時間或いは所定期間経過した後の顔表面テクスチャの主成分スコアを予測し、それら主成分スコアの差分を当該経時変化特徴量として算出する。
当該経時変化特徴量が顔表面テクスチャどうしの差分により算出される場合であって顔表面テクスチャ情報が画素毎の画素値の集合である画像データで示される場合には、当該差分は、周知のあらゆる手法により算出可能である。例えば、顔表面テクスチャの画像間をピクセル単位若しくはブロック単位で比較して、濃淡値の差分値(符号付き又は絶対値)や比率を算出する、或いは濃淡値の比較判別を行うことで差分データを抽出することができる。抽出した差異データには、電子的ノイズや、本来の顔表面テクスチャとは違う照明由来の肌のムラ情報等、不要な情報が含まれている場合があるため、更に、周波数フィルタや空間フィルタを当該抽出された差分データに適用することで不要な情報を除外してもよい。また、当該差分データの中から必要な情報のみを抽出するために、モルフォロジー変換を介した抽出を行うようにしてもよい。
The AI model in this embodiment calculates the principal component score of the facial surface texture of the human face reflected in the input facial image data, and calculates the principal component score for the predetermined time period of the human face using a machine-learned predictive transformation matrix. Alternatively, the principal component scores of the facial surface texture after a predetermined period of time have elapsed are predicted, and the difference between these principal component scores is calculated as the time-varying feature amount.
When the time-varying feature quantity is calculated by the difference between facial surface textures, and when the facial surface texture information is represented by image data that is a set of pixel values for each pixel, the difference can be calculated using any well-known method. It can be calculated using this method. For example, by comparing facial surface texture images pixel by pixel or block by block and calculating the difference value (signed or absolute value) or ratio of shading values, or by comparing and determining the shading values, difference data can be obtained. can be extracted. The extracted difference data may contain unnecessary information such as electronic noise and skin unevenness information due to illumination that differs from the original facial surface texture, so frequency filters and spatial filters are also applied. By applying this to the extracted difference data, unnecessary information may be excluded. Further, in order to extract only necessary information from the difference data, extraction may be performed through morphological transformation.

当該経時変化特徴量の経過時間の長さは、人顔の顔表面テクスチャの変化が視認可能な程度の時間の長さとされればよく、数時間、数日、数週間、数か月、数年等とすることができ、例えば、同日内の朝と夜(12時間)、1週間、夏から冬にかけての期間(6カ月)、3年、5年、10年等に設定される。但し、当該経過時間の長さは特に制限されない。
また、当該所定時間或いは当該所定期間(経過時間の長さ)は、教師データとして利用される経時変化前後の顔画像データセットにより設定され得る。例えば、教師データとして利用される顔画像データセットが5年経過後の人顔が写る顔画像データと5年経過前の人顔が写る顔画像データとの組である場合には、当該所定期間(経過時間の長さ)は5年と考えることができる。
教師データとして利用される顔画像データは、素顔の画像データであることが好ましいが、化粧顔の画像データであってもよい。また、当該教師データは、経時変化前後の同一人の顔画像データセットのみで形成されることが好ましいが、顔の特徴や顔のテクスチャ特徴が似ているなど、経時変化前後に相当しうる異なる二人の顔画像データセットを含んでもよいし、経時変化前又は経時変化後のいずれか一方の顔画像データとその顔画像データに対する画像処理で生成された他方の顔画像データとでデータセットを形成してもよい。
但し、教師データで用いられる顔画像データは、写る顔の向きが正規化されており、更に、各個人の顔の特定パーツ(目、鼻、口等)の位置が正規化された画像データとされることが望ましい。また、教師データとされる顔画像データは、可視光画像のみでなく、赤外線等の可視光以外の波長帯を撮像した画像であってもよい。
The length of the elapsed time of the temporal change feature may be a length of time that allows the change in the facial surface texture of the human face to be visually recognized, and may be several hours, days, weeks, months, or several hours. For example, it can be set to the morning and night of the same day (12 hours), one week, the period from summer to winter (six months), three years, five years, ten years, etc. However, the length of the elapsed time is not particularly limited.
Further, the predetermined time or the predetermined period (length of elapsed time) may be set by a face image data set before and after changes over time that is used as teacher data. For example, if the face image data set used as training data is a set of face image data that shows a human face after 5 years and face image data that shows a human face 5 years ago, then (length of elapsed time) can be considered as 5 years.
The face image data used as training data is preferably image data of a bare face, but may be image data of a face with makeup. In addition, it is preferable that the training data is formed only from facial image datasets of the same person before and after changes over time, but it is also possible to The data set may include face image data sets of two people, or may include face image data of either one before or after change over time and the other face image data generated by image processing on that face image data. may be formed.
However, the facial image data used in the training data has the orientation of the photographed face normalized, and the position of specific parts of each individual's face (eyes, nose, mouth, etc.) has been normalized. It is desirable that Further, the face image data used as the teacher data may be not only a visible light image but also an image captured in a wavelength band other than visible light such as infrared light.

当該AIモデルは、入力顔画像データの顔表面テクスチャの経時変化特徴量を最終的に算出するものであってもよいし、最終出力の前の中間情報として当該経時変化特徴量を算出するものであってもよい。
また、当該AIモデルのデータ構造及び学習手法には様々な周知技術を利用可能であり、例えば、上述の特許文献3で開示されるテクスチャ加齢モデルの生成手法や学習手法などを用いることができる。例えば、主成分分析を用いたテクスチャ加齢モデルとWAVELET変換を用いたテクスチャ加齢モデルとの両方が利用されてもよいし、どちらか一方が利用されてもよい。また、教師データ及びAIモデルに適用される顔画像データは、直角座標系以外の円柱座標系等の画像に変換されてもよい。
The AI model may be one that ultimately calculates the time-varying feature amount of the facial surface texture of the input facial image data, or may be one that calculates the time-varying feature amount as intermediate information before the final output. There may be.
In addition, various well-known techniques can be used for the data structure and learning method of the AI model. For example, the generation method and learning method of the texture aging model disclosed in Patent Document 3 mentioned above can be used. . For example, both a texture aging model using principal component analysis and a texture aging model using WAVELET transformation may be used, or either one may be used. Further, the face image data applied to the teacher data and the AI model may be converted to an image in a cylindrical coordinate system other than a rectangular coordinate system.

本方法は、図2に示されるように、工程(S21)から工程(S26)を含んでいる。
工程(S21)は、対象者の顔画像データを取得するデータ取得工程である。以降の説明では、工程(S21)で取得された顔画像データに写る対象者の顔を元顔と表記する場合がある。
顔画像データは、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得される。但し、画像のデータ形式は、制限されず、各画素の明暗情報が羅列される形式であってもよい。また、取得される画像は、カラー画像であってもよいし、カラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。CPU11は、顔画像を撮像したカメラから顔画像データを取得してもよいし、他のコンピュータや可搬型記録媒体から顔画像データを取得してもよい。
As shown in FIG. 2, this method includes steps (S21) to (S26).
Step (S21) is a data acquisition step of acquiring facial image data of the subject. In the following description, the face of the subject reflected in the face image data acquired in step (S21) may be referred to as the original face.
The face image data is acquired as an image file in, for example, JPEG (Joint Photographic Experts Group) format, BMP (Bitmap image) format, TIFF (Tagged Image File Format) format, GIF (Graphic Interchange Format) format, or the like. However, the data format of the image is not limited, and may be a format in which brightness information of each pixel is listed. Further, the acquired image may be a color image, or a grayscale image obtained by converting a color image into a grayscale. The CPU 11 may acquire facial image data from a camera that has captured a facial image, or may acquire facial image data from another computer or a portable recording medium.

工程(S21)で取得される顔画像データでは、その画像の被写体の状態がAIモデルの教師データで用いられた顔画像のそれと整合していることが好ましい。例えば、教師データの顔画像が正面から視た顔表面テクスチャを示している場合には、顔画像データも同様に、対象者の正面から視た顔表面テクスチャを示していることが好ましい。
そこで、工程(S21)では、取得された顔画像データに対して、AIモデルの教師データの顔画像と適合させる正規化処理を施すことで、顔画像データを取得するようにしてもよい。この正規化処理では、例えば、画像データ内の顔の大きさや位置、顔の特定パーツ(目、鼻、口等)の位置の正規化、背景抜き等が行われる。
顔の特定パーツ(目、鼻、口等)の位置の正規化を行う場合には、工程(S21)では、取得された顔画像データに対して所定の画像認識処理を施すことで、目、鼻、口、眉などの特定パーツを自動認識するようにしてもよい。この場合、工程(S21)では、自動認識の結果が示す特定パーツの有無や位置関係などから、取得された顔画像データが利用可能か否かをチェックすることもできる。
In the face image data acquired in step (S21), it is preferable that the state of the subject in the image matches that of the face image used in the training data of the AI model. For example, when the face image of the teacher data shows the facial surface texture seen from the front, it is preferable that the face image data similarly shows the facial surface texture seen from the front of the subject.
Therefore, in step (S21), facial image data may be acquired by subjecting the acquired facial image data to normalization processing to match the facial image of the AI model's teacher data. In this normalization process, for example, the size and position of the face in the image data, the position of specific parts of the face (eyes, nose, mouth, etc.) are normalized, the background is removed, and the like.
When normalizing the positions of specific parts of the face (eyes, nose, mouth, etc.), in the step (S21), a predetermined image recognition process is performed on the acquired facial image data to identify the eyes, nose, mouth, etc. Specific parts such as the nose, mouth, and eyebrows may be automatically recognized. In this case, in the step (S21), it is also possible to check whether the acquired facial image data can be used based on the presence or absence of a specific part, positional relationship, etc. indicated by the automatic recognition result.

工程(S22)は、工程(S21)で取得された顔画像データに基づいて学習済みのAIモデルにより算出された対象者の顔表面テクスチャの経時変化特徴量を取得する特徴量取得工程である。
当該AIモデルが情報処理装置10内のメモリ12に格納されている場合には、CPU11は、工程(S21)で取得された顔画像データを入力顔画像データとして当該AIモデルに適用することで当該AIモデルから当該経時変化特徴量を取得することができる。一方で、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに当該AIモデルが格納されている場合には、CPU11は、当該他のコンピュータに工程(S21)で取得された顔画像データを送ることで、当該AIモデルにより算出された当該経時変化特徴量をそのコンピュータから通信を介して取得することができる。
工程(S22)で取得される経時変化特徴量は、本実施形態では、入力顔画像データに写る元顔の主成分スコアと、その元顔の主成分スコアから当該AIモデルにより予測される所定時間或いは所定期間(例えば5年)経過した後の対象者の顔の主成分スコアとの差分データとされる。
Step (S22) is a feature amount acquisition step of acquiring a time-varying feature amount of the subject's facial surface texture calculated by the trained AI model based on the face image data acquired in step (S21).
When the AI model is stored in the memory 12 in the information processing device 10, the CPU 11 applies the facial image data acquired in step (S21) to the AI model as input facial image data. The time-varying feature amount can be obtained from the AI model. On the other hand, if the AI model is stored in the memory of another computer that the information processing device 10 can access via communication, the CPU 11 transmits the facial image data acquired in step (S21) to the other computer. By sending this, the time-varying feature amount calculated by the AI model can be acquired from the computer via communication.
In this embodiment, the time-varying feature acquired in step (S22) is the principal component score of the original face reflected in the input face image data, and the predetermined time predicted by the AI model from the principal component score of the original face. Alternatively, the difference data may be used as difference data with the principal component score of the subject's face after a predetermined period of time (for example, 5 years) has elapsed.

工程(S23)は、工程(S22)で取得された経時変化特徴量の次元数を複数段階で圧縮して二次元の経時変化特徴量とする次元圧縮工程である。
工程(S23)では、工程(S22)で取得された経時変化特徴量の次元数が二次元に圧縮されればよく、その次元圧縮の段階数は2以上であればよく、各段階の圧縮次元数は任意である。
例えば、工程(S23)で2段階の圧縮が行われる場合には、第一段階目の圧縮では、工程(S22)で取得された経時変化特徴量の要素群をそれぞれ同じ要素数となるように所定数で区分けし、区分けされた次元域ごとに要素のユークリッドノルムを算出してその次元域の要素とすることで、当該経時変化特徴量を所定数次元に圧縮し、第二段階目の圧縮では、その所定数次元の経時変化特徴量に対する次元圧縮処理により二次元の経時変化特徴量を取得する。
Step (S23) is a dimension compression step in which the number of dimensions of the time-varying feature obtained in step (S22) is compressed in multiple stages to obtain a two-dimensional time-varying feature.
In the step (S23), the number of dimensions of the time-varying feature obtained in the step (S22) may be compressed to two dimensions, and the number of stages of dimension compression may be two or more, and the compression dimension of each stage may be compressed to two dimensions. The number is arbitrary.
For example, when two stages of compression are performed in the step (S23), in the first stage of compression, the element groups of the temporal change features acquired in the step (S22) are compressed so that they each have the same number of elements. By dividing it into a predetermined number of dimensions, calculating the Euclidean norm of the element for each divided dimension region, and using it as an element in that dimension region, the time-varying feature is compressed into a predetermined number of dimensions, and the second stage of compression is performed. Then, a two-dimensional time-varying feature is obtained by performing dimension compression processing on the predetermined number of dimensions of the time-varying feature.

後述する実施例では、第一段階目の圧縮において、100次元の経時変化特徴量(100個の要素群)を10個ずつの要素群に区分けして、区分けされた次元域ごとに10個の要素群のユークリッドノルムを算出してその次元域の要素とすることで、10次元の経時変化特徴量を得る。次の第二段階目の圧縮では、その10次元の経時変化特徴量に主成分分析を適用して、第一主成分(特徴ベクトル)の重みと第二主成分(特徴ベクトル)の重みとを要素とする2次元の経時変化特徴量を得る。
この例において、第一段階目の圧縮における区分け数は3個以上20個以下とされることが好ましい。このような区分け数によれば、二段階目の圧縮における主成分分析で得られる第一主成分の重みと第二主成分の重みとで経時変化特徴量の精度を維持することができる。
In the example described later, in the first stage of compression, a 100-dimensional time-varying feature quantity (100 element groups) is divided into 10 element groups each, and 10 elements are By calculating the Euclidean norm of the element group and using it as an element in that dimension domain, a 10-dimensional time-varying feature quantity is obtained. In the next second stage of compression, principal component analysis is applied to the 10-dimensional time-varying features to calculate the weights of the first principal component (feature vector) and the second principal component (feature vector). Obtain two-dimensional time-varying features to be used as elements.
In this example, the number of divisions in the first stage compression is preferably 3 or more and 20 or less. According to such a number of divisions, the accuracy of the time-varying feature amount can be maintained with the weight of the first principal component and the weight of the second principal component obtained by the principal component analysis in the second stage of compression.

また、次元圧縮の段階数が3段階とされる場合には、第一段階目及び第二段階目の圧縮においてユークリッドノルムの算出を用いて段階的に経時変化特徴量の次元数を圧縮し、第三段階目の圧縮で上述と同様の主成分分析を用いることができる。
また、各段階の圧縮手法は、ユークリッドノルムの算出及び主成分分析のみに限定されず、因子分析等のようなその他の既知の次元圧縮手法を利用することもできる。
In addition, when the number of stages of dimension compression is three stages, the number of dimensions of the time-varying feature quantity is compressed in stages using Euclidean norm calculation in the first and second stages of compression, Principal component analysis similar to that described above can be used in the third stage of compression.
Further, the compression method at each stage is not limited to only Euclidean norm calculation and principal component analysis, and other known dimension compression methods such as factor analysis can also be used.

工程(S24)は、母集団の顔画像データ群に関して予め取得された顔表面テクスチャの二次元の経時変化特徴量の分布情報に基づいて、工程(S23)で二次元に圧縮された対象者の経時変化特徴量に対してクラスタ判定を行う工程である。
ここでの「母集団の顔画像データ群」の全部又は一部は、AIモデルの教師データの全部又は一部であってもよいし、その教師データには含まれない他の顔画像データ群であってもよい。
AIモデルの教師データに含まれる画像データ群が利用される場合には、「予め取得された顔表面テクスチャの二次元の経時変化特徴量」は、経時変化前後の顔画像データセットの顔表面テクスチャ情報間の差分を予め算出することで取得され得る。一方で、AIモデルの教師データには含まれない他の顔画像データ群が利用される場合には、「予め取得された顔表面テクスチャの二次元の経時変化特徴量」は、各顔画像データを学習済みのAIモデルに適用することで予め取得され得る。
The step (S24) is based on the distribution information of the two-dimensional time-varying characteristic amount of the facial surface texture obtained in advance for the face image data group of the population, and the image of the subject compressed into two dimensions in the step (S23). This is a step of performing cluster determination on time-varying feature quantities.
All or part of the "population face image data group" here may be all or part of the training data of the AI model, or other face image data groups not included in the training data. It may be.
When a group of image data included in the training data of the AI model is used, the "two-dimensional temporal change feature of the facial surface texture acquired in advance" is the facial surface texture of the facial image dataset before and after the temporal change. It can be obtained by calculating the difference between pieces of information in advance. On the other hand, when other facial image data groups that are not included in the training data of the AI model are used, the "two-dimensional time-varying feature amount of the facial surface texture acquired in advance" is based on each facial image data. can be obtained in advance by applying this to a trained AI model.

「予め取得された顔表面テクスチャの二次元の経時変化特徴量の分布情報」は、経時変化特徴量の各次元をそれぞれ軸とする二次元座標系に予め取得された経時変化特徴量群がマッピングされた特徴量分布図であってもよいし、当該予め取得された経時変化特徴量群を判別分析することで得られる判別関数や決定境界式であってもよい。判別分析にはフィッシャーの線形判別分析手法のような既知のあらゆる判別アルゴリズムが利用可能である。 "Distribution information of two-dimensional time-varying features of facial surface texture acquired in advance" is a mapping of a group of time-varying features acquired in advance to a two-dimensional coordinate system with each dimension of the time-varying features as an axis. It may be a feature value distribution diagram obtained by using the above method, or it may be a discriminant function or a decision boundary equation obtained by discriminant analysis of the group of time-varying feature values obtained in advance. Any known discriminant algorithm such as Fisher's linear discriminant analysis method can be used for the discriminant analysis.

そのため、工程(S24)でのクラスタ判定は、当該予め取得された経時変化特徴量の分布情報に基づく複数のクラスタであって相互に異なる経時変化特性タイプがそれぞれ対応付けられた複数のクラスタの中から、対象者の経時変化特徴量に対応するクラスタを判定する。
当該分布情報が上述の特徴量分布図である場合には、この特徴量分布図が複数のクラスタに分けられており、その特徴量分布図に対象者の経時変化特徴量をマッピングすることで、対象者の経時変化特徴量に対応するクラスタを判定することができる。また、当該分布情報が各クラスタを判別可能な判別関数である場合には、この判別関数に対象者の経時変化特徴量を入力することで、対象者の経時変化特徴量に対応するクラスタを判定することができる。
Therefore, the cluster determination in step (S24) is performed on a plurality of clusters based on the distribution information of the temporal change feature obtained in advance, and in which mutually different temporal change characteristic types are associated with each other. From this, clusters corresponding to the subject's time-varying feature values are determined.
If the distribution information is the above-mentioned feature distribution map, this feature distribution map is divided into multiple clusters, and by mapping the subject's time-varying feature values to the feature distribution map, It is possible to determine clusters corresponding to the subject's time-varying feature values. In addition, if the distribution information is a discriminant function that can distinguish each cluster, by inputting the subject's time-varying feature quantity into this discriminant function, the cluster corresponding to the subject's time-varying feature quantity can be determined. can do.

経時変化特性タイプは、経時変化傾向を示すタイプで複数設けられており、各経時変化特性タイプは、顔表面テクスチャの局所的な(空間周波数の小さな)変化の多少及び大域的な(空間周波数の大きな)変化の多少によりそれぞれ特徴付けられている。
顔表面テクスチャの局所的な変化は、顔表面テクスチャの小さな色ムラ分布、又は構造による陰影分布(数mm程度或いはそれ以下(例えば数百μm程度))の変化であり、この小さな色ムラ分布の変化としては例えば、シミ、ソバカス、色素班、肝斑、赤みムラ、クマ等の色ムラの変化に相当し、小さな構造による陰影分布の変化としては例えば、鱗屑、縮緬ジワ等の表面粗さの偏在がもたらす明暗、又は小ジワ、毛穴、上眼瞼溝、下眼瞼溝、オトガイ唇溝等の肌の表面の凹凸が生み出す陰影の変化に相当する。
顔表面テクスチャの大域的な変化は、顔表面テクスチャの大きな色ムラ分布、又は構造による陰影分布(数cm程度)の変化、或いは光沢の分布の変化であり、この大きな構造による陰影分布の変化としては例えば、大きな襞(ひだ)やシワ、鼻唇溝、肌のたるみ、肌のはり等の肌表面の凹凸が生み出す陰影の変化に相当し、或いは、頬部・こめかみのこけ(陥凹)、眼窩脂肪の膨隆による陰影の変化も相当する。大きな色ムラ分布の変化としては例えば、肌のくすみや大きなシミ等の変化に相当する。
There are multiple types of temporal change characteristics that indicate trends over time. Each type of change is characterized by a greater or lesser degree of change (large).
A local change in the facial surface texture is a change in the distribution of small color unevenness in the facial surface texture or a change in the shading distribution due to the structure (on the order of several mm or smaller (for example, on the order of several hundred μm)). Examples of changes include changes in color unevenness such as age spots, freckles, pigment spots, liver spots, uneven redness, and dark circles.Changes in shadow distribution due to small structures include changes in surface roughness such as scales and crepe wrinkles. This corresponds to changes in brightness and darkness caused by uneven distribution, or changes in shadows caused by irregularities on the skin surface such as fine wrinkles, pores, upper eyelid grooves, lower eyelid grooves, and geniolabial grooves.
A global change in the facial surface texture is a large uneven color distribution of the facial surface texture, a change in the shading distribution (on the order of several cm) due to the structure, or a change in the gloss distribution, and as a change in the shading distribution due to this large structure. For example, this corresponds to changes in shadows caused by irregularities on the skin surface such as large folds, wrinkles, nasolabial folds, sagging skin, and firmness of the skin, or moss (depression) on the cheeks and temples. The change in shadow due to swelling of orbital fat is also equivalent. A large change in color unevenness distribution corresponds to, for example, a change in skin dullness or large age spots.

工程(S25)は、工程(S24)でのクラスタ判定の結果に応じて、対象者の顔表面テクスチャの経時変化傾向を示す経時変化特性タイプを特定するタイプ特定工程である。具体的には、複数の経時変化特性タイプの中の、工程(S24)で判定されたクラスタに対応付けられた経時変化特性タイプが、対象者の経時変化特性タイプとして特定される。 Step (S25) is a type specifying step of specifying a time-varying characteristic type that indicates a tendency of the subject's facial surface texture to change over time, according to the result of the cluster determination in step (S24). Specifically, among the plurality of time-varying characteristic types, the time-varying characteristic type associated with the cluster determined in step (S24) is specified as the time-varying characteristic type of the subject.

本発明者らは、顔表面テクスチャの多次元の経時変化特徴量に対して複数段階の次元圧縮を行うことで得られる二次元の経時変化特徴量が複数人分集められた分布情報は、複数のクラスタに分類することができ、各クラスタが、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少によりそれぞれ特徴付けられることを新たに見出した。
そして、上述のように、当該分布情報に基づいて対象者の顔表面テクスチャの二次元の経時変化特徴量が属するクラスタを判定することで、その対象者の顔表面テクスチャに関して、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少により特徴付けられる経時変化特性タイプを特定する。
The present inventors have demonstrated that distribution information obtained by performing multiple stages of dimensional compression on the multidimensional time-varying feature values of facial surface textures collected for multiple people is It has been newly discovered that facial surface texture can be classified into clusters, and each cluster is characterized by more or less local changes and more or less global changes in facial surface texture.
Then, as described above, by determining the cluster to which the two-dimensional temporal change feature of the subject's facial surface texture belongs based on the distribution information, local Identify time-varying characteristic types characterized by more or less global changes and more or less global changes.

工程(S26)は、工程(S25)で特定された経時変化特性タイプの情報と共に、工程(S22)で当該AIモデルから取得された対象者の顔表面テクスチャの経時変化特徴量の画像データを出力する出力工程である。
工程(S26)での出力は、経時変化特性タイプの情報および経時変化特徴量の画像データを表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、CPU11は、出力形態としては、経時変化特性タイプの情報および経時変化特徴量の画像データを見比べることができるようにそれらを並べて表示(出力)してもよいし、切り替え可能にいずれか一方を表示してもよいし、重畳して表示してもよい。
Step (S26) outputs image data of the temporal change feature amount of the facial surface texture of the subject obtained from the AI model in step (S22), along with the information on the temporal change characteristic type specified in step (S25). This is the output process.
The output in the step (S26) may be realized by displaying the information of the temporal change characteristic type and the image data of the temporal change characteristic amount on the display device 15, or by printing it on a printer device. Alternatively, it may be realized by sending the information to a portable recording medium or another computer via the communication unit 14.
Further, as an output format, the CPU 11 may display (output) the information of the temporal change characteristic type and the image data of the temporal change characteristic amount side by side so that they can be compared, or may switch between them. may be displayed or may be displayed in a superimposed manner.

出力される経時変化特性タイプの情報は、例えば、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少により特徴付けられたその経時変化特性タイプの特徴を説明する文字列で出力される。また、経時変化特性タイプの識別情報が出力されてもよい。
経時変化特徴量の画像データは、人顔の顔表面テクスチャの経時変化の特徴を顔表面の位置情報と共に(顔表面の部位ごとに)示し得るデータであればよい。例えば、実施例として後述するように、二次元に圧縮された経時変化特徴量の第一要素及び第二要素の特徴をそれぞれ表す二種類の画像データが経時変化特徴量の画像データとして生成されてもよい。この例における画像データは、実施例に例示されるように圧縮前の経時変化特徴量の画像データから生成されてもよいし、一段階目の圧縮後の経時変化特徴量の画像データから生成されてもよいし、最終圧縮後の二次元の経時変化特徴量の画像データから生成されてもよい。
AIモデルが経時変化特徴量と顔表面の位置情報とを関連付けた形で出力可能であれば、それらを合成して経時変化特徴量の画像データが取得されてもよい。
このように人顔の顔表面テクスチャの経時変化の特徴を顔表面の位置情報と共に示し得る画像データを出力することで、顔表面テクスチャの経時変化傾向を顔の部位ごとに提示することができる。
The information on the temporal change characteristic type to be output is, for example, a character string that describes the characteristics of the temporal change characteristic type characterized by the degree of local change and the degree of global change in the facial surface texture. Ru. Further, identification information of the type of characteristics changing over time may be output.
The image data of the temporal change feature amount may be any data that can indicate the characteristic of the temporal change of the facial surface texture of a human face together with the position information of the facial surface (for each part of the facial surface). For example, as will be described later as an example, two types of image data representing the first and second elements of a two-dimensionally compressed time-varying feature are generated as image data of a time-varying feature. Good too. The image data in this example may be generated from the image data of the time-varying feature amount before compression as exemplified in the embodiment, or may be generated from the image data of the time-varying feature amount after the first stage of compression. Alternatively, it may be generated from the image data of the two-dimensional time-varying feature after final compression.
If the AI model can output the time-varying feature amount and the position information of the face surface in a form in which they are associated with each other, image data of the time-varying feature amount may be obtained by combining them.
In this way, by outputting image data that can show the characteristics of changes over time in the facial surface texture of a human face together with the position information on the face surface, it is possible to present trends in changes over time in the facial surface texture for each part of the face.

よって、経時変化特性タイプの情報と共に、当該AIモデルから取得された対象者の顔表面テクスチャの経時変化特徴量の画像データを出力することにより、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少で特徴付けられる経時変化傾向と共に、そのような経時変化傾向が生じる顔表面の位置情報を合わせて提示することができる。 Therefore, by outputting image data of the temporal change feature amount of the subject's facial surface texture obtained from the AI model along with information on the temporal change characteristic type, it is possible to determine the local and global changes in the facial surface texture. It is possible to present not only the temporal change tendency characterized by the degree of change, but also the positional information of the facial surface where such a temporal change tendency occurs.

[変形例]
上述の実施形態の内容は、支障のない範囲で適宜変形することができる。
例えば、上述の実施形態では、工程(S26)において経時変化特性タイプの情報と共に経時変化特徴量の画像データが出力されたが、経時変化特性タイプの情報のみが出力されてもよい。
[Modified example]
The contents of the above-described embodiments can be modified as appropriate without causing any problems.
For example, in the above-described embodiment, image data of the time-varying characteristic amount is output together with the information of the time-varying characteristic type in step (S26), but only the information of the time-varying characteristic type may be output.

また、工程(S26)に替えて次のような工程が実行されるようにしてもよい。即ち、上述の顔表面テクスチャの経時変化特性判定方法は、工程(S21)から工程(S25)に加えて、次のような工程(S31)及び工程(S32)を更に含んでもよい。 Moreover, the following process may be performed instead of step (S26). That is, the above-described method for determining the temporal change characteristic of facial surface texture may further include the following steps (S31) and (S32) in addition to steps (S21) to (S25).

工程(S31)では、CPU11は、メモリ12から、工程(S25)で特定された経時変化特性タイプに対応するスキンケア情報若しくは美容施術情報の一方又は両方を抽出する。
メモリ12には、複数の経時変化特性タイプの各々の識別情報に関連付けた形で、その経時変化特性タイプと判定された人のためのスキンケア情報若しくは美容施術情報の一方又は両方が予め格納されている。CPU11は、工程(S25)で特定された経時変化特性タイプの識別情報に基づいて、メモリ12からその経時変化特性タイプに対応するスキンケア情報若しくは美容施術情報の一方又は両方を抽出することができる。
In the step (S31), the CPU 11 extracts from the memory 12 one or both of the skin care information and the beauty treatment information corresponding to the temporal change characteristic type specified in the step (S25).
The memory 12 stores in advance one or both of skin care information and beauty treatment information for a person determined to have a plurality of temporal change characteristic types in association with identification information of each of the plurality of temporal change characteristic types. There is. Based on the identification information of the temporal change characteristic type specified in step (S25), the CPU 11 can extract one or both of the skin care information and the beauty treatment information corresponding to the temporal change characteristic type from the memory 12.

スキンケア情報は、スキンケアに関わる情報であり、スキンケア品又はスキンケア手法の情報を含む。スキンケア品は、スキンケアのために利用され得るあらゆる物品であり、例えば、洗顔料、化粧水、美容液などのようなスキンケア化粧料、化粧落としに利用される物品(吸収性物品など)、スキンケアのための飲食品などがあり得る。スキンケアのための飲食品には、水に溶かして摂取するサプリメントと呼ばれる栄養補助食品なども含まれる。スキンケア手法は、肌美容の手法であり、医療行為を除くものである。スキンケア手法には、食生活や運動メニュー、お風呂上り時や就寝前にすることなど生活習慣に関する手法、スキンケア品の使い方など様々な手法があり得る。
美容施術情報は、人の顔の美容施術(医療行為を除く)に関する情報であり、美容マッサージ等の情報を含む。
但し、抽出されるスキンケア情報及び美容施術情報の具体的内容は何ら制限されない。
The skin care information is information related to skin care, and includes information on skin care products or skin care methods. Skin care products are any products that can be used for skin care, such as skin care cosmetics such as facial cleansers, lotions, serums, etc., products used for removing makeup (absorbent products, etc.), and skin care products. There may be food and drinks for this purpose. Foods and drinks for skin care also include nutritional supplements called supplements that are dissolved in water and ingested. A skin care method is a skin beauty method and excludes medical procedures. Skin care methods can include various methods such as diet, exercise menu, lifestyle-related methods such as what to do after taking a bath or before going to bed, and how to use skin care products.
The beauty treatment information is information regarding beauty treatments for a person's face (excluding medical treatments), and includes information such as beauty massage.
However, the specific contents of the extracted skin care information and beauty treatment information are not limited in any way.

工程(S32)では、CPU11は、工程(S31)で抽出されたスキンケア情報若しくは美容施術情報の一方又は両方を出力する。
工程(S32)での出力は、スキンケア情報若しくは美容施術情報の一方又は両方を表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、工程(S32)では、CPU11は、スキンケア情報若しくは美容施術情報の一方又は両方に加えて、工程(S25)で特定された経時変化特性タイプの情報若しくは経時変化特徴量の画像データの一方又は両方を更に出力するようにしてもよい。
In the step (S32), the CPU 11 outputs one or both of the skin care information and the beauty treatment information extracted in the step (S31).
The output in step (S32) may be realized by displaying one or both of skin care information and beauty treatment information on the display device 15, or may be realized by printing on a printer device, or may be realized by printing on a printer device. It may also be realized by sending the information to a portable recording medium or another computer via the communication unit 14.
Further, in the step (S32), the CPU 11 selects, in addition to one or both of the skin care information and the beauty treatment information, one or both of the information on the temporal change characteristic type identified in the step (S25) or the image data of the temporal change characteristic amount. Both may be further output.

このような変形例によれば、対象者は、自身の顔画像を提供することで、経時変化(所定時間経過或いは所定期間経過)に伴う自身の顔表面テクスチャの変化傾向のタイプ(経時変化特性タイプ)を知ることができるだけでなく、そのタイプに適したスキンケア情報及び美容施術情報も知ることができる。
経時変化特性タイプに適したスキンケア情報及び美容施術情報は、その経時変化特性タイプに応じて顔表面テクスチャの局所的な変化若しくは大域的な変化の一方又は両方が少なくなるような情報となる。例えば、経時変化特性タイプが顔表面テクスチャの大域的な変化も局所的な変化も相対的に多いことを示す場合には、顔表面テクスチャの局所的な変化及び大域的な変化が少なくなるようなスキンケア情報又は美容施術情報が出力され、経時変化特性タイプが顔表面テクスチャの大域的な変化が相対的に多く局所的な変化が相対的に少ないことを示す場合には、顔表面テクスチャの大域的な変化が少なくなるようなスキンケア情報又は美容施術情報が出力される。
According to such a modified example, by providing an image of the subject's own face, the subject can determine the type of change tendency (temporal change characteristics) of the subject's own facial surface texture over time (the passage of a predetermined time or a predetermined period of time). Not only can you know your type (type), you can also know skin care information and beauty treatment information suitable for that type.
Skin care information and beauty treatment information suitable for a time-varying characteristic type are information that reduces local changes and/or global changes in facial surface texture depending on the time-varying characteristic type. For example, if the temporal change characteristic type indicates relatively more global and local changes in facial surface texture, then When skin care information or beauty treatment information is output and the temporal change characteristic type indicates that there are relatively many global changes in the facial surface texture and relatively few local changes, the global change in the facial surface texture is Skin care information or beauty treatment information that causes fewer changes is output.

上記の実施形態及び変形例の一部又は全部は、次のようにも特定され得る。但し、上述の実施形態及び変形例が以下の記載に制限されるものではない。 Some or all of the embodiments and modifications described above may also be specified as follows. However, the embodiments and modifications described above are not limited to the following description.

<1>
経時変化前後の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって、入力顔画像データの顔表面テクスチャの経時変化特徴量を算出可能な学習済みモデルを利用することができる一以上のプロセッサが、
対象者の顔画像データを取得するデータ取得工程と、
前記取得された顔画像データに基づいて前記学習済みモデルにより算出された前記対象者の顔表面テクスチャの経時変化特徴量を取得する特徴量取得工程と、
前記取得された経時変化特徴量の次元数を複数段階で圧縮して二次元の経時変化特徴量とする次元圧縮工程と、
母集団の顔画像データ群に関して予め取得された顔表面テクスチャの二次元の経時変化特徴量の分布情報に基づいて、前記次元圧縮工程で二次元に圧縮された前記対象者の前記経時変化特徴量に対してクラスタ判定を行うことにより、前記対象者の顔表面テクスチャの経時変化傾向を示す経時変化特性タイプを特定するタイプ特定工程と、
を実行し、
前記特定される経時変化特性タイプは、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少によりそれぞれ特徴付けられる複数の経時変化特性タイプの中の一つであり、
前記クラスタ判定は、前記分布情報に基づく複数のクラスタであって相互に異なる前記経時変化特性タイプがそれぞれ対応付けられた複数のクラスタの中から、前記対象者の前記経時変化特徴量に対応するクラスタを判定し、
前記タイプ特定工程では、前記判定されたクラスタに対応する経時変化特性タイプを特定する、
顔表面テクスチャの経時変化特性判定方法。
<1>
A trained model that is obtained by machine learning using training data that includes multiple facial image datasets before and after changes over time, and that is capable of calculating temporal change features of facial surface texture of input facial image data. One or more processors that can be used
a data acquisition step of acquiring face image data of the subject;
a feature amount acquisition step of acquiring a time-varying feature amount of the facial surface texture of the subject calculated by the learned model based on the acquired facial image data;
a dimension compression step of compressing the number of dimensions of the acquired time-varying feature amount in multiple stages to obtain a two-dimensional time-varying feature amount;
The time-varying feature of the subject compressed into two dimensions in the dimensional compression step based on the distribution information of the two-dimensional time-varying feature of the facial surface texture obtained in advance with respect to the face image data group of the population. a type identification step of identifying a temporal change characteristic type that indicates a temporal change tendency of the facial surface texture of the subject by performing cluster determination on the subject;
Run
The specified time-varying characteristic type is one of a plurality of time-varying characteristic types each characterized by a degree of local change and a degree of global change in facial surface texture,
The cluster determination includes selecting a cluster corresponding to the temporal change characteristic amount of the subject from among a plurality of clusters based on the distribution information and each of which is associated with a mutually different temporal change characteristic type. Determine,
In the type identification step, a time-varying characteristic type corresponding to the determined cluster is identified;
A method for determining the characteristics of facial surface texture changes over time.

<2>
前記複数のクラスタは、第一クラスタ、第二クラスタ及び第三クラスタを少なくとも含み、
前記第一クラスタは、顔表面テクスチャに関して、大域的な変化が前記第二クラスタ及び前記第三クラスタよりも少なく、局所的な変化が前記第二クラスタよりも少ないことを示す第一経時変化特性タイプに対応付けられており、
前記第二クラスタは、顔表面テクスチャに関して、大域的な変化が前記第一クラスタよりも多くかつ前記第三クラスタよりも少なく、局所的な変化が前記第一クラスタ及び前記第三クラスタよりも多いことを示す第二経時変化特性タイプに対応付けられており、
前記第三クラスタは、顔表面テクスチャに関して、大域的な変化が前記第一クラスタ及び前記第二クラスタよりも多く、局所的な変化が前記第二クラスタよりも少ないことを示す第三経時変化特性タイプに対応付けられている、
<1>に記載の経時変化特性判定方法。
<3>
前記次元圧縮工程では2段階の圧縮が行われ、
前記次元圧縮工程における第一段階目の圧縮では、前記経時変化特徴量の要素群をそれぞれ同じ要素数となるように所定数で区分けし、区分けされた次元域ごとに要素のユークリッドノルムを算出して該次元域の要素とすることで、該経時変化特徴量を該所定数次元に圧縮し、
前記次元圧縮工程における第二段階目の圧縮では、前記所定数次元の前記経時変化特徴量に対する次元圧縮処理により前記二次元の経時変化特徴量を取得する、
<1>又は<2>に記載の経時変化特性判定方法。
<4>
前記一以上のプロセッサが、
前記タイプ特定工程で特定された前記経時変化特性タイプの情報と共に、前記学習済みモデルにより算出された前記対象者の顔表面テクスチャの経時変化特徴量の画像データを出力する出力工程、
を更に実行する<1>から<3>のいずれか一つに記載の経時変化特性判定方法。
<5>
前記一以上のプロセッサは、前記複数の経時変化特性タイプの各々に対応付けてスキンケア情報若しくは美容施術情報の一方又は両方を格納する情報格納部を参照可能であり、
前記一以上のプロセッサが、
前記情報格納部から、前記タイプ特定工程で特定された前記経時変化特性タイプに対応するスキンケア情報若しくは美容施術情報の一方又は両方を抽出する工程と、
前記抽出されたスキンケア情報若しくは美容施術情報の一方又は両方を出力する工程と、
を更に実行する<1>から<4>のいずれか一つに記載の経時変化特性判定方法。
<6>
前記学習済みモデルを利用可能な装置であって、<1>から<5>のいずれか一つに記載の経時変化特性判定方法を実行可能な経時変化特性判定装置。
<7>
前記学習済みモデルを利用可能な一以上のプロセッサに、<1>から<5>のいずれか一つに記載の経時変化特性判定方法を実行させ得るコンピュータプログラム又はそのコンピュータプログラムを前記一以上のプロセッサに読み取り可能に記録する記録媒体。
<2>
The plurality of clusters include at least a first cluster, a second cluster, and a third cluster,
The first cluster has a first temporal change characteristic type indicating that, with respect to facial surface texture, the global change is less than the second cluster and the third cluster, and the local change is less than the second cluster. is associated with
Regarding facial surface texture, the second cluster has more global changes than the first cluster and less than the third cluster, and has more local changes than the first cluster and the third cluster. is associated with the second aging characteristic type that indicates
The third cluster is a third temporal change characteristic type indicating that, with respect to facial surface texture, global changes are more than the first cluster and the second cluster, and local changes are less than the second cluster. is associated with
The method for determining characteristics over time according to <1>.
<3>
In the dimensional compression step, two stages of compression are performed,
In the first stage of compression in the dimensional compression process, the element group of the time-varying feature is divided into a predetermined number of elements so that each has the same number of elements, and the Euclidean norm of the element is calculated for each divided dimensional area. compress the time-varying feature amount to the predetermined number of dimensions by making it an element of the dimension domain,
In the second stage of compression in the dimensional compression step, the two-dimensional time-varying feature quantity is obtained by a dimensional compression process on the time-varying feature quantity of the predetermined number of dimensions.
The method for determining characteristics over time according to <1> or <2>.
<4>
the one or more processors,
an output step of outputting image data of the temporal change feature amount of the facial surface texture of the subject calculated by the learned model, together with information on the temporal change characteristic type specified in the type identification step;
The method for determining characteristics over time according to any one of <1> to <3>, further comprising performing the following.
<5>
The one or more processors can refer to an information storage unit that stores one or both of skin care information and beauty treatment information in association with each of the plurality of temporal change characteristic types,
the one or more processors,
extracting, from the information storage unit, one or both of skin care information and beauty treatment information corresponding to the time-varying characteristic type identified in the type identifying step;
outputting one or both of the extracted skin care information or beauty treatment information;
The method for determining characteristics over time according to any one of <1> to <4>, further comprising performing the following.
<6>
A device for determining characteristics over time that can utilize the trained model and is capable of executing the method for determining characteristics over time according to any one of <1> to <5>.
<7>
A computer program capable of causing one or more processors that can use the learned model to execute the method for determining a temporal change characteristic according to any one of <1> to <5>, or a computer program for the one or more processors that can use the learned model. A recording medium that records data in a readable manner.

以下に実施例を挙げ、上述の内容を更に詳細に説明する。但し、以下の実施例の記載は、上述の内容に何ら限定を加えるものではない。 The above-mentioned contents will be explained in more detail by giving examples below. However, the description of the following examples is not intended to limit the above content in any way.

本実施例では、16歳から74歳の106名の日本人女性における各人の5年経過前後の顔をそれぞれ撮像した顔画像データセットが教師データとして準備された。
AIモデルは、上述の実施形態と同様であり、入力顔画像データに対して主成分分析を行うことで100次元の特徴ベクトル(固有顔)の重みで構成される主成分スコアを算出し、その主成分スコアを予測変換行列に適用することで経時変化後の顔表面テクスチャの主成分スコアを算出し、それら主成分スコアの差分を経時変化特徴量として算出する。このため、算出される経時変化特徴量は100次元のデータとなっている。
本実施例では、AIモデルにより算出される経時変化特徴量を経時変化成分スコアと表記する。
上記教師データを用いた機械学習により、このAIモデルは、5年経過後の顔表面テクスチャの主成分スコアを算出することができ、5年経過前後の経時変化特徴量を算出することができるモデルとして学習された。
In this example, a face image data set in which the faces of 106 Japanese women between the ages of 16 and 74 were captured before and after five years was prepared as the teacher data.
The AI model is similar to the embodiment described above, and calculates the principal component score composed of the weights of the 100-dimensional feature vector (eigenface) by performing principal component analysis on the input facial image data. By applying the principal component scores to the predictive transformation matrix, the principal component scores of the facial surface texture after changes over time are calculated, and the differences between these principal component scores are calculated as the changes over time feature quantity. Therefore, the calculated temporal change feature amount is 100-dimensional data.
In this embodiment, the time-varying feature amount calculated by the AI model is referred to as a time-varying component score.
Through machine learning using the above training data, this AI model is able to calculate the principal component score of the facial surface texture after 5 years, and is a model that can calculate the temporal change feature amount before and after 5 years. It was learned as.

本実施例では、このように学習されたAIモデルに上記教師データの106名の各人の5年経過前の顔を撮像した顔画像データを適用することで、106名分の経時変化成分スコアが算出された。
このように算出された106名分の各経時変化成分スコアの次元数が2段階で圧縮され、2次元の経時変化成分スコアが取得された。具体的には、第一段階目の次元圧縮において、各経時変化成分スコアの要素(重み)群を特徴ベクトル(固有顔)の低次から順に10次元ごとに区切り、区分けされた次元域ごとに10個(10次元分)の要素(重み)群のユークリッドノルムを算出してその次元域の要素とすることで、10次元の経時変化成分スコアがそれぞれ求められる。第二段階目の次元圧縮では、その10次元の経時変化成分スコアに主成分分析を適用して、第一主成分(特徴ベクトル)の重みと第二主成分(特徴ベクトル)の重みとを要素とする2次元の経時変化成分スコアが求められた。
In this example, by applying face image data of the faces of each of the 106 people in the teacher data taken five years ago to the AI model learned in this way, the temporal change component scores of the 106 people are calculated. was calculated.
The number of dimensions of each of the temporal change component scores for the 106 people calculated in this way was compressed in two stages, and two-dimensional temporal change component scores were obtained. Specifically, in the first stage of dimension compression, the elements (weights) of each temporal change component score are divided into 10 dimensions in order from the lowest degree of the feature vector (eigenface), and the By calculating the Euclidean norm of a group of 10 (10 dimensions) elements (weights) and using them as elements in that dimensional domain, the 10-dimensional time-varying component scores are determined. In the second stage of dimension reduction, principal component analysis is applied to the 10-dimensional time-varying component scores, and the weight of the first principal component (feature vector) and the weight of the second principal component (feature vector) are A two-dimensional time-varying component score was determined.

このとき、第二段階目の次元圧縮で得られた第一主成分及び第二主成分に対する、第一段階目の次元圧縮で得られた10次元の経時変化成分スコア(ユークリッドノルム)の主成分負荷量は、第一主成分においては1次元目から5次元目までの低い次数の次元域の寄与が大きく、第二主成分には6次元目から8次元目までの高い次数の次元域の寄与が大きいことが示された。第一段階目の次元圧縮で得られた10次元の経時変化成分スコア(ユークリッドノルム)の次数の高さが次元圧縮前の固有顔の次数の高さと対応していることは、10次元の経時変化成分スコアの生成過程から明らかである。そして、一般的に固有顔は、低い次数ほど大域的な特徴(大きめの特徴)が、高い次数になるほど局所的な特徴(小さめの特徴)が選択的に抽出されるという特性があるため、第一主成分は、顔表面テクスチャの大域的な変化を示し、第二主成分は、顔表面テクスチャの局所的な変化を示すと考えられた。 At this time, the principal component of the 10-dimensional time-varying component score (Euclidean norm) obtained in the first step of dimensional compression is compared to the first principal component and second principal component obtained in the second step of dimensional compression. Regarding the loadings, in the first principal component, the contribution of the low-order dimension region from the 1st to the 5th dimension is large, and in the second principal component, the contribution of the high-order dimension region from the 6th dimension to the 8th dimension is large. It was shown that the contribution was large. The fact that the degree height of the 10-dimensional temporal change component score (Euclidean norm) obtained in the first stage of dimension compression corresponds to the degree height of the eigenface before dimension compression means that This is clear from the process of generating change component scores. In general, eigenfaces have the characteristic that the lower the degree, the more global features (larger features) are selectively extracted, and the higher the degree, the more local features (smaller features) are selectively extracted. One principal component was considered to indicate global changes in facial surface texture, and the second principal component was considered to indicate local changes in facial surface texture.

図3は、実施例における10次元の経時変化成分スコアに対する主成分分析の適用結果を示すグラフであり、図3には各主成分の寄与率及び累積寄与率が表されている。
図3の縦軸には寄与率及び累積寄与率(%)が示されており、横軸には各主成分の番号(低次から高次へ1から10の数値で主成分が識別されている)が示されている。
図3によれば、経時変化特徴量の二段階目の次元圧縮で行われた主成分分析の結果、第一主成分及び第二主成分で累積寄与率が75%以上を占めていることが分かる。
よって、上述したとおり、経時変化特徴量の二段階目の次元圧縮において求められる、第一主成分の重みと第二主成分の重みとを要素とする2次元の経時変化成分スコアは、経時変化特徴量を十分に表しているといえる。
FIG. 3 is a graph showing the results of applying principal component analysis to the 10-dimensional time-varying component scores in the example, and FIG. 3 shows the contribution rate and cumulative contribution rate of each principal component.
The vertical axis of Figure 3 shows the contribution rate and cumulative contribution rate (%), and the horizontal axis shows the number of each principal component (principal components are identified by numbers from 1 to 10 from low order to high order). ) is shown.
According to Figure 3, the results of the principal component analysis performed in the second stage of dimensional compression of the time-varying feature values show that the cumulative contribution rate of the first and second principal components accounts for 75% or more. I understand.
Therefore, as mentioned above, the two-dimensional time-varying component score, which has the weight of the first principal component and the weight of the second principal component as elements, is determined in the second stage of dimension compression of the temporal change feature. It can be said that the feature values are sufficiently expressed.

図4は、実施例における2次元の経時変化成分スコアの分布を示すグラフである。
106名の各人に関して上述のように得られた2次元の経時変化成分スコアをその第一主成分の要素を横軸とし第二主成分の要素を縦軸とするグラフにマッピングしたところ、図4に示されるような分布が示された。
FIG. 4 is a graph showing the distribution of two-dimensional time-varying component scores in the example.
When the two-dimensional time-varying component scores obtained for each of the 106 people as described above were mapped onto a graph with the first principal component on the horizontal axis and the second principal component on the vertical axis, the results are shown in Figure The distribution shown in Figure 4 was shown.

図5は、実施例における2次元の経時変化成分スコアの分布のクラスタリングを示すグラフである。
図4に示される分布グラフにおいて各人の経時変化成分スコアを示す各プロットを主観的にクラスタリングすることで、図5に示されるように3つのクラスタに分けた。なお、プロット間距離を評価することでこのクラスタリングの妥当性を確認しているため、ここでのクラスタリングは、主観的判断に加えて、プロット間距離を用いた定性的評価により行われたといえる。
各クラスタは次のような特徴を有しているといえる。
クラスタ1は、第一主成分の値の分散が小さく、第二主成分の値の分散が大きく、クラスタの重心の第一主成分及び第二主成分の値は共に正の値を示している。
クラスタ2は、第一主成分及び第二主成分のいずれの値も分散が同程度でかたまっており、クラスタの重心の第二主成分の値は負の値を示している。
クラスタ3は、第一主成分の値と第二主成分の値とが負の相関を示しており、クラスタの重心の第一主成分の値は負の値を示しかつその第二主成分の値は正の値を示している。
また、クラスタ1、クラスタ2、クラスタ3の順で全体的にスマイルカーブのような形状を有している。
FIG. 5 is a graph showing clustering of the distribution of two-dimensional time-varying component scores in the example.
By subjectively clustering each plot showing each person's time-varying component score in the distribution graph shown in FIG. 4, the results were divided into three clusters as shown in FIG. 5. In addition, since the validity of this clustering was confirmed by evaluating the distance between plots, it can be said that the clustering here was performed by qualitative evaluation using the distance between plots in addition to subjective judgment.
It can be said that each cluster has the following characteristics.
In cluster 1, the variance of the values of the first principal component is small, the variance of the values of the second principal component is large, and the values of the first principal component and the second principal component of the center of gravity of the cluster both show positive values. .
In cluster 2, the values of the first principal component and the second principal component are clustered with the same degree of variance, and the value of the second principal component at the center of gravity of the cluster shows a negative value.
In cluster 3, the value of the first principal component and the value of the second principal component show a negative correlation, and the value of the first principal component of the center of gravity of the cluster shows a negative value, and the value of the second principal component shows a negative correlation. The value indicates a positive value.
Further, cluster 1, cluster 2, and cluster 3 have an overall shape like a smile curve in this order.

図6は、実施例における3つクラスタの年代分布を示すグラフである。
図5に示されるクラスタごとに、属する2次元の経時変化成分スコアの各人の年齢の統計を取ったところ、図6に示されるように、各クラスタの年代構成が相互に顕著に異なることが分かった。クラスタ1は、平均年齢が31歳であり34歳以下の世代の経時変化成分スコアが多く所属しており、クラスタ2は、平均年齢が47歳であり35歳から44歳の世代の経時変化成分スコアが多く所属しており、クラスタ3は、平均年齢が62歳であり55歳以上の世代の経時変化成分スコアが多く所属しており、各クラスタが年代構成に応じて分類されていることが分かった。
FIG. 6 is a graph showing the age distribution of three clusters in the example.
When we took statistics on the age of each person in the two-dimensional temporal change component score for each cluster shown in Figure 5, we found that the age composition of each cluster was significantly different from each other, as shown in Figure 6. Do you get it. Cluster 1 has an average age of 31 years old and has a large number of temporal change component scores for the generation under 34 years old, and cluster 2 has an average age of 47 years old and has a large number of temporal change component scores for the generation from 35 to 44 years old. Cluster 3 has many scores, and cluster 3 has an average age of 62 years and a large number of temporal change component scores for the 55 and older generation, indicating that each cluster is classified according to the age structure. Do you get it.

従って、3つのクラスタは、各年代に起こり易い顔表面テクスチャ変化の特徴を捉えていると考えられる。
このため、図4及び図5に示される分布グラフにおける横軸(2次元の経時変化成分スコアの第一要素(第一主成分))は、顔表面テクスチャの大域的な(数cm程度の)変化を示し、縦軸(2次元の経時変化成分スコアの第二要素(第二主成分))は、顔表面テクスチャの局所的な(数mm程度或いはそれ以下(例えば数百μm程度)の)変化を示すと考えられた。そして、当該第一主成分については、大きい程、大域的な変化が小さく、小さい程、大域的な変化が大きい、当該第二主成分については、大きい程、局所的な変化が小さく、小さい程、局所的な変化が大きいと考えられた。
また、横軸は、肌のくすみや大きなシミ等の大きな色ムラ分布の変化、シワ、たるみ、肌のはり等の大きな構造の変化、或いは光沢の分布の変化を示し、縦軸は、シミ、ソバカス、色素班、肝斑、赤みムラ、クマ等の小さな色ムラ変化、鱗屑、縮緬ジワ等の表面粗さの偏在や小ジワ、毛穴、上眼瞼溝、下眼瞼溝、オトガイ唇溝等の小さな構造による陰影分布の変化を示すということもできる。
Therefore, the three clusters are considered to capture the characteristics of facial surface texture changes that tend to occur in each age group.
Therefore, the horizontal axis (the first element (first principal component) of the two-dimensional time-varying component score) in the distribution graphs shown in FIGS. The vertical axis (the second element (second principal component) of the two-dimensional temporal change component score) is the local change (about several mm or smaller (for example, about several hundred μm)) of the facial surface texture. It was thought to indicate a change. Regarding the first principal component, the larger the component, the smaller the global change; , local changes were considered to be large.
In addition, the horizontal axis shows changes in the distribution of major color unevenness such as skin dullness and large age spots, major structural changes such as wrinkles, sagging, and firmness of the skin, or changes in the distribution of gloss, and the vertical axis shows changes in the distribution of color unevenness such as skin dullness and large age spots. Small uneven color changes such as freckles, pigment spots, melasma, uneven redness, dark circles, uneven distribution of surface roughness such as scales, crepe wrinkles, small wrinkles, pores, upper eyelid grooves, lower eyelid grooves, mental labial grooves, etc. It can also be said to show changes in shading distribution due to structure.

図7は、実施例における2次元の経時変化成分スコアの分布の判別式を示すグラフである。
図5に示される主観的なクラスタリング結果に基づいて、各クラスタの境界を求める式として3つのクラスタを判別するための判別式が生成された。本実施例では、図7に示される2つの線形判別式(Eq1及びEq2)が求められた。
線形判別式Eq1は正の傾きを持ち、線形判別式Eq2は負の傾きを持ち、両者の交点が、第一主成分(横軸)の値がゼロ又はゼロに近似する値であり、第二主成分(縦軸)の値が正の値を示している。
この2つの判別式によれば、判別式Eq1の上方かつ判別式Eq2の下方をクラスタ1と判別し、判別式Eq1の下方かつ判別式Eq2の下方をクラスタ2と判別し、判別式Eq1の下方かつ判別式Eq2の上方をクラスタ3と判別することができる。
FIG. 7 is a graph showing a discriminant for the distribution of two-dimensional time-varying component scores in the example.
Based on the subjective clustering results shown in FIG. 5, a discriminant for determining the three clusters was generated as a formula for determining the boundaries of each cluster. In this example, two linear discriminants (Eq1 and Eq2) shown in FIG. 7 were determined.
The linear discriminant Eq1 has a positive slope, and the linear discriminant Eq2 has a negative slope. The value of the principal component (vertical axis) shows a positive value.
According to these two discriminants, the area above discriminant Eq1 and below discriminant Eq2 is determined to be cluster 1, the area below discriminant Eq1 and below discriminant Eq2 is determined to be cluster 2, and the area below discriminant Eq1 is determined to be cluster 2. Moreover, the area above discriminant Eq2 can be determined to be cluster 3.

図8は、実施例における2次元の経時変化成分スコアの分布の一部とその経時変化成分スコアの第一主成分の特徴を表す画像を示す図であり、図9は、実施例における2次元の経時変化成分スコアの分布の一部とその経時変化成分スコアの第二主成分の特徴を表す画像を示す図である。以降、2次元の経時変化成分スコアの第一主成分の特徴を表す画像を第一主成分対応画像と表記し、2次元の経時変化成分スコアの第二主成分の特徴を表す画像を第二主成分対応画像と表記する場合がある。
図8及び図9には、図4等で示されている106名分の経時変化成分スコアのうちの45歳から54歳の17名分の経時変化成分スコアの分布が示されている。
更に、図8には、その17名のうちの8名分に関して、2次元の経時変化成分スコアの第一主成分対応画像が各人の経時変化成分スコアのプロットからの引き出し線の先にそれぞれ示されており、図9には、同8名分に関して、2次元の経時変化成分スコアの第二主成分対応画像が各人の経時変化成分スコアのプロットからの引き出し線の先にそれぞれ示されている。
FIG. 8 is a diagram showing a part of the distribution of the two-dimensional time-varying component scores in the example and an image showing the characteristics of the first principal component of the time-varying component score. FIG. 7 is a diagram showing an image showing a part of the distribution of the time-varying component scores and the characteristics of the second principal component of the time-varying component scores. Hereinafter, the image representing the characteristics of the first principal component of the two-dimensional temporal change component score will be referred to as the first principal component corresponding image, and the image representing the characteristics of the second principal component of the two-dimensional temporal change component score will be referred to as the second principal component image. Sometimes referred to as a principal component corresponding image.
8 and 9 show the distribution of the time-varying component scores for 17 people aged 45 to 54 out of the 106 time-varying component scores shown in FIG. 4 and the like.
Furthermore, in FIG. 8, for 8 of the 17 people, images corresponding to the first principal component of the two-dimensional time-varying component scores are shown at the end of the leader line from the plot of the time-varying component scores of each person. In FIG. 9, images corresponding to the second principal components of the two-dimensional time-varying component scores for the same eight people are shown at the end of the leader line from the plot of the time-varying component scores of each person. ing.

図8及び図9に示されるように、第一主成分対応画像及び第二主成分対応画像は、顔表面の各部位(目、鼻、口、頬等)の位置情報を含んでいる。本実施例では、AIモデルにより行われる主成分分析で用いられる各次の特徴ベクトル(固有顔)を用いることで、顔表面の各部位の位置情報を含む第一主成分対応画像及び第二主成分対応画像を生成することができる。
具体的には、図8に示される第一主成分対応画像は、AIモデルにより算出された5年経過前後の差分となる100次元の経時変化成分スコアの、第11次から第30次の主成分のスコア及びそれら次数の固有顔から合成される経時変化差分画像の全体に対して、画素値の絶対値化を行った後(画素値を変化量の大きさとした後)、一定強度以下の画素値を0に変換する処理(黒く塗りつぶす処理)を行うことで、強度の高い画素(部位)が強調されるようにして生成された。
100次元の経時変化成分スコアにおける第11次から第30次の主成分のスコアは、一段階目の圧縮において第2から第3番目の要素(ユークリッドノルム)となり、その第2から第3番目の要素は、二段階目の圧縮で得られる2次元の経時変化成分スコアの第一要素への寄与が高いため、上述のように生成された第一主成分対応画像は、2次元の経時変化成分スコアの第一主成分の特徴を表すといえる。
図9に示される第二主成分対応画像は、AIモデルにより算出された5年経過前後の差分となる100次元の経時変化成分スコアの、第51次から第70次の主成分のスコア及びそれら次数の固有顔から合成される経時変化差分画像の全体に対して、画素値の絶対値化を行った後(画素値を変化量の大きさとした後)、一定強度以下の画素値を0に変換する処理(黒く塗りつぶす処理)を行うことで、強度の高い画素(部位)が強調されるようにして生成された。
100次元の経時変化成分スコアにおける第51次から第70次の主成分のスコアは、一段階目の圧縮において第6から第7番目の要素(ユークリッドノルム)となり、その第6から第7番目の要素は、二段階目の圧縮で得られる2次元の経時変化成分スコアの第二要素への寄与が高いため、上述のように生成された第二主成分対応画像は、2次元の経時変化成分スコアの第二主成分の特徴を表すといえる。
但し、第一主成分対応画像及び第二主成分対応画像は、2次元の経時変化成分スコアの第一主成分又は第二主成分の特徴を表すのであれば、上述のような手法以外の手法で生成されてもよい。
As shown in FIGS. 8 and 9, the first principal component corresponding image and the second principal component corresponding image include positional information of each part of the face surface (eyes, nose, mouth, cheeks, etc.). In this example, by using each order feature vector (eigenface) used in the principal component analysis performed by the AI model, the first principal component corresponding image containing the position information of each part of the face surface and the second principal A component corresponding image can be generated.
Specifically, the first principal component corresponding image shown in FIG. After converting the pixel values into absolute values for the entire time-varying difference image synthesized from the component scores and the eigenfaces of these orders (after converting the pixel values into the magnitude of change), By performing a process of converting the pixel value to 0 (a process of filling it in black), it was generated so that pixels (parts) with high intensity were emphasized.
The scores of the 11th to 30th principal components in the 100-dimensional time-varying component score become the 2nd to 3rd elements (Euclidean norm) in the first stage of compression, and the 2nd to 3rd Since the element has a high contribution to the first element in the two-dimensional time-varying component score obtained in the second stage of compression, the first principal component corresponding image generated as described above has a two-dimensional time-varying component score. It can be said that it represents the characteristics of the first principal component of the score.
The second principal component corresponding image shown in FIG. 9 shows the 51st to 70th principal component scores and their After converting the pixel values into absolute values for the entire time-varying difference image synthesized from the eigenfaces of the order (after setting the pixel values to the magnitude of change), pixel values below a certain intensity are set to 0. By performing conversion processing (blacking out processing), pixels (parts) with high intensity were generated so as to be emphasized.
The scores of the 51st to 70th principal components in the 100-dimensional time-varying component score become the 6th to 7th elements (Euclidean norm) in the first stage of compression, and the 6th to 7th Since the element has a high contribution to the second element of the two-dimensional time-varying component score obtained in the second stage of compression, the second principal component corresponding image generated as described above has a two-dimensional time-varying component score. It can be said that this represents the characteristics of the second principal component of the score.
However, if the first principal component corresponding image and the second principal component corresponding image represent the characteristics of the first principal component or second principal component of the two-dimensional time-varying component score, a method other than the above method may be used. may be generated.

図8に示される第一主成分対応画像は、図9に示される第二主成分対応画像よりも比較的大きい領域(大域的な領域)の変化を示しており、逆に、図9に示される第二主成分対応画像は、図8に示される第一主成分対応画像よりも比較的小さい領域(局所的な領域)の変化を示していることがわかる。
また、第一主成分対応画像によれば、クラスタ1は、クラスタ2及びクラスタ3よりも大域的な変化が少なく、クラスタ3は、クラスタ1及びクラスタ2よりも大域的な変化が多いことがわかる。
第二主成分対応画像によれば、クラスタ1及びクラスタ3は、クラスタ2よりも局所的な変化が少なく、逆に、クラスタ2は、クラスタ1及びクラスタ3よりも局所的な変化が多いことがわかる。
The first principal component corresponding image shown in FIG. 8 shows changes in a relatively larger area (global area) than the second principal component corresponding image shown in FIG. It can be seen that the second principal component corresponding image shown in FIG. 8 shows changes in a relatively smaller area (local area) than the first principal component corresponding image shown in FIG.
Furthermore, according to the first principal component corresponding image, it can be seen that cluster 1 has fewer global changes than clusters 2 and 3, and cluster 3 has more global changes than clusters 1 and 2. .
According to the second principal component corresponding image, clusters 1 and 3 have fewer local changes than cluster 2, and conversely, cluster 2 has more local changes than clusters 1 and 3. Recognize.

以上より、クラスタ1は、顔表面テクスチャに関して、大域的な変化がクラスタ2及びクラスタ3よりも少なく、局所的な変化がクラスタ2よりも少ないことを示す第一経時変化特性タイプに対応付けることができ、クラスタ2は、顔表面テクスチャに関して、大域的な変化がクラスタ1よりも多くかつクラスタ3よりも少なく、局所的な変化がクラスタ1及びクラスタ3よりも多いことを示す第二経時変化特性タイプに対応付けることができ、クラスタ3は、顔表面テクスチャに関して、大域的な変化がクラスタ1及びクラスタ2よりも多く、局所的な変化がクラスタ2よりも少ないことを示す第三経時変化特性タイプに対応付けることができる。 From the above, cluster 1 can be associated with the first temporal change characteristic type, which indicates that there are fewer global changes than clusters 2 and 3, and fewer local changes than cluster 2, regarding facial surface texture. , Cluster 2 is of the second temporal characteristic type indicating more global changes than Cluster 1 and less than Cluster 3, and more local changes than Clusters 1 and 3 regarding facial surface texture. Cluster 3 may be associated with a third temporal characteristic type indicating more global changes than Clusters 1 and 2 and less local changes than Cluster 2 with respect to facial surface texture. I can do it.

従って、本実施例によれば、対象者の顔画像データをAIモデルに適用することで対象者の100次元の経時変化成分スコアを取得し、その100次元の経時変化成分スコアの次元数を2段階で圧縮することで2次元の経時変化成分スコアを求め、その2次元の経時変化成分スコアを2つの線形判別式に適用することで、対象者の経時変化成分スコアが属するクラスタを判定することができることが実証された。
加えて、各クラスタは、年齢層に応じた分類を示していること、加えて、顔表面テクスチャの大域的な変化の多少及び局所的な変化の多少により特徴付けられることが実証された。
そして、対象者に関して判定されたクラスタに基づいて、その対象者の顔表面テクスチャに関して、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少により特徴付けられる経時変化特性タイプを特定することができることも実証された。
Therefore, according to the present example, the subject's 100-dimensional time-varying component score is obtained by applying the subject's face image data to the AI model, and the number of dimensions of the 100-dimensional time-varying component score is reduced to 2. A two-dimensional time-varying component score is obtained by stepwise compression, and the two-dimensional time-varying component score is applied to two linear discriminants to determine the cluster to which the subject's time-varying component score belongs. It has been proven that it is possible.
In addition, it was demonstrated that each cluster represents a classification according to age group, and is characterized by more or less global changes and more or less local changes in facial surface texture.
Based on the clusters determined for the subject, a temporal change characteristic type characterized by more or less local changes and more or less global changes in the facial surface texture is identified with respect to the subject's facial surface texture. It has also been demonstrated that it is possible.

10 情報処理装置(経時変化特性判定装置)
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
10 Information processing device (temporal change characteristic determination device)
11 CPU
12 Memory 13 Input/output I/F
14 Communication unit 15 Display device 16 Input device

Claims (6)

経時変化前後の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって、入力顔画像データの顔表面テクスチャの経時変化特徴量を算出可能な学習済みモデルを利用することができる一以上のプロセッサが、
対象者の顔画像データを取得するデータ取得工程と、
前記取得された顔画像データに基づいて前記学習済みモデルにより算出された前記対象者の顔表面テクスチャの経時変化特徴量を取得する特徴量取得工程と、
前記取得された経時変化特徴量の次元数を複数段階で圧縮して二次元の経時変化特徴量とする次元圧縮工程と、
母集団の顔画像データ群に関して予め取得された顔表面テクスチャの二次元の経時変化特徴量の分布情報に基づいて、前記次元圧縮工程で二次元に圧縮された前記対象者の前記経時変化特徴量に対してクラスタ判定を行うことにより、前記対象者の顔表面テクスチャの経時変化傾向を示す経時変化特性タイプを特定するタイプ特定工程と、
を実行し、
前記特定される経時変化特性タイプは、顔表面テクスチャの局所的な変化の多少及び大域的な変化の多少によりそれぞれ特徴付けられる複数の経時変化特性タイプの中の一つであり、
前記クラスタ判定は、前記分布情報に基づく複数のクラスタであって相互に異なる前記経時変化特性タイプがそれぞれ対応付けられた複数のクラスタの中から、前記対象者の前記経時変化特徴量に対応するクラスタを判定し、
前記タイプ特定工程では、前記判定されたクラスタに対応する経時変化特性タイプを特定する、
顔表面テクスチャの経時変化特性判定方法。
A trained model that is obtained by machine learning using training data that includes multiple facial image datasets before and after changes over time, and that is capable of calculating temporal change features of facial surface texture of input facial image data. One or more processors that can be used
a data acquisition step of acquiring face image data of the subject;
a feature amount acquisition step of acquiring a time-varying feature amount of the facial surface texture of the subject calculated by the learned model based on the acquired facial image data;
a dimension compression step of compressing the number of dimensions of the acquired time-varying feature amount in multiple stages to obtain a two-dimensional time-varying feature amount;
The time-varying feature of the subject compressed into two dimensions in the dimensional compression step based on the distribution information of the two-dimensional time-varying feature of the facial surface texture obtained in advance with respect to the face image data group of the population. a type identification step of identifying a temporal change characteristic type that indicates a temporal change tendency of the facial surface texture of the subject by performing cluster determination on the subject;
Run
The specified time-varying characteristic type is one of a plurality of time-varying characteristic types each characterized by a degree of local change and a degree of global change in facial surface texture,
The cluster determination includes selecting a cluster corresponding to the temporal change characteristic amount of the subject from among a plurality of clusters based on the distribution information and each of which is associated with a mutually different temporal change characteristic type. Determine,
In the type identification step, a time-varying characteristic type corresponding to the determined cluster is identified;
A method for determining the characteristics of facial surface texture changes over time.
前記複数のクラスタは、第一クラスタ、第二クラスタ及び第三クラスタを少なくとも含み、
前記第一クラスタは、顔表面テクスチャに関して、大域的な変化が前記第二クラスタ及び前記第三クラスタよりも少なく、局所的な変化が前記第二クラスタよりも少ないことを示す第一経時変化特性タイプに対応付けられており、
前記第二クラスタは、顔表面テクスチャに関して、大域的な変化が前記第一クラスタよりも多くかつ前記第三クラスタよりも少なく、局所的な変化が前記第一クラスタ及び前記第三クラスタよりも多いことを示す第二経時変化特性タイプに対応付けられており、
前記第三クラスタは、顔表面テクスチャに関して、大域的な変化が前記第一クラスタ及び前記第二クラスタよりも多く、局所的な変化が前記第二クラスタよりも少ないことを示す第三経時変化特性タイプに対応付けられている、
請求項1に記載の経時変化特性判定方法。
The plurality of clusters include at least a first cluster, a second cluster, and a third cluster,
The first cluster has a first temporal change characteristic type indicating that, with respect to facial surface texture, the global change is less than the second cluster and the third cluster, and the local change is less than the second cluster. is associated with
Regarding facial surface texture, the second cluster has more global changes than the first cluster and less than the third cluster, and has more local changes than the first cluster and the third cluster. is associated with the second aging characteristic type that indicates
The third cluster is a third temporal change characteristic type indicating that, with respect to facial surface texture, global changes are more than the first cluster and the second cluster, and local changes are less than the second cluster. is associated with
The method for determining characteristics over time according to claim 1.
前記次元圧縮工程では2段階の圧縮が行われ、
前記次元圧縮工程における第一段階目の圧縮では、前記経時変化特徴量の要素群をそれぞれ同じ要素数となるように所定数で区分けし、区分けされた次元域ごとに要素のユークリッドノルムを算出して該次元域の要素とすることで、該経時変化特徴量を該所定数次元に圧縮し、
前記次元圧縮工程における第二段階目の圧縮では、前記所定数次元の前記経時変化特徴量に対する次元圧縮処理により前記二次元の経時変化特徴量を取得する、
請求項1又は2に記載の経時変化特性判定方法。
In the dimensional compression step, two stages of compression are performed,
In the first stage of compression in the dimensional compression process, the element group of the temporal change feature is divided into a predetermined number so that each has the same number of elements, and the Euclidean norm of the element is calculated for each divided dimensional area. compress the time-varying feature amount to the predetermined number of dimensions by making it an element of the dimension domain,
In the second stage of compression in the dimensional compression step, the two-dimensional time-varying feature quantity is obtained by a dimensional compression process on the time-varying feature quantity of the predetermined number of dimensions.
The method for determining characteristics over time according to claim 1 or 2.
前記一以上のプロセッサが、
前記タイプ特定工程で特定された前記経時変化特性タイプの情報と共に、前記学習済みモデルにより算出された前記対象者の顔表面テクスチャの経時変化特徴量の画像データを出力する出力工程、
を更に実行する請求項1から3のいずれか一項に記載の経時変化特性判定方法。
the one or more processors,
an output step of outputting image data of the temporal change characteristic quantity of the facial surface texture of the subject calculated by the learned model, together with information on the temporal change characteristic type specified in the type identification step;
The method for determining characteristics over time according to any one of claims 1 to 3, further comprising performing the following.
前記一以上のプロセッサは、前記複数の経時変化特性タイプの各々に対応付けてスキンケア情報若しくは美容施術情報の一方又は両方を格納する情報格納部を参照可能であり、
前記一以上のプロセッサが、
前記情報格納部から、前記タイプ特定工程で特定された前記経時変化特性タイプに対応するスキンケア情報若しくは美容施術情報の一方又は両方を抽出する工程と、
前記抽出されたスキンケア情報若しくは美容施術情報の一方又は両方を出力する工程と、
を更に実行する請求項1から4のいずれか一項に記載の経時変化特性判定方法。
The one or more processors can refer to an information storage unit that stores one or both of skin care information and beauty treatment information in association with each of the plurality of temporal change characteristic types,
the one or more processors,
extracting, from the information storage unit, one or both of skin care information and beauty treatment information corresponding to the time-varying characteristic type identified in the type identifying step;
outputting one or both of the extracted skin care information or beauty treatment information;
The method for determining characteristics over time according to any one of claims 1 to 4, further comprising performing the following.
前記学習済みモデルを利用可能な装置であって、請求項1から5のいずれか一項に記載の経時変化特性判定方法を実行可能な経時変化特性判定装置。 A temporal change characteristic determination device that can utilize the learned model and can execute the temporal change characteristic determination method according to any one of claims 1 to 5.
JP2021207385A 2021-12-21 2021-12-21 Method for determining temporal change characteristics of facial surface texture Active JP7429683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021207385A JP7429683B2 (en) 2021-12-21 2021-12-21 Method for determining temporal change characteristics of facial surface texture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021207385A JP7429683B2 (en) 2021-12-21 2021-12-21 Method for determining temporal change characteristics of facial surface texture

Publications (2)

Publication Number Publication Date
JP2023092254A JP2023092254A (en) 2023-07-03
JP7429683B2 true JP7429683B2 (en) 2024-02-08

Family

ID=86996022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021207385A Active JP7429683B2 (en) 2021-12-21 2021-12-21 Method for determining temporal change characteristics of facial surface texture

Country Status (1)

Country Link
JP (1) JP7429683B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073273A (en) 2016-11-02 2018-05-10 花王株式会社 Aging analysis method
JP2019114253A (en) 2017-12-22 2019-07-11 シャネル パフュームズ ビューテ Improved age modeling method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018073273A (en) 2016-11-02 2018-05-10 花王株式会社 Aging analysis method
JP2019114253A (en) 2017-12-22 2019-07-11 シャネル パフュームズ ビューテ Improved age modeling method

Also Published As

Publication number Publication date
JP2023092254A (en) 2023-07-03

Similar Documents

Publication Publication Date Title
Niu et al. Rhythmnet: End-to-end heart rate estimation from face via spatial-temporal representation
JP7395604B2 (en) Automatic image-based skin diagnosis using deep learning
Lou et al. Realistic facial expression reconstruction for VR HMD users
Dibeklioğlu et al. Combining facial dynamics with appearance for age estimation
JP5827225B2 (en) Age estimation method
CN110036402A (en) The data processing method of prediction for media content performance
JP6207210B2 (en) Information processing apparatus and method
WO2022143645A1 (en) Three-dimensional face reconstruction method and apparatus, device, and storage medium
Dibeklioğlu et al. A smile can reveal your age: Enabling facial dynamics in age estimation
JPWO2013005447A1 (en) Facial impression analysis method, beauty counseling method and face image generation method
JP6008698B2 (en) Face image analyzing apparatus and face image analyzing method
JP2007128171A (en) Face image synthesizer, face image synthesizing method and face image synthesizing program
Choi et al. Age face simulation using aging functions on global and local features with residual images
Yap et al. A survey on facial wrinkles detection and inpainting: Datasets, methods, and challenges
CN113344837B (en) Face image processing method and device, computer readable storage medium and terminal
Yin et al. PulseNet: A multitask learning network for remote heart rate estimation
JP5818714B2 (en) Makeup face image evaluation apparatus and makeup face image evaluation method
JP7429683B2 (en) Method for determining temporal change characteristics of facial surface texture
Bastanfard et al. Toward E-appearance of human face and hair by age, expression and rejuvenation
JP2007175484A (en) Face classification method, face classifier, classification map, face classification program and recording medium having recorded program
Prajapati et al. Facial age group classification
JP2022078936A (en) Skin image analysis method
CN114743241A (en) Facial expression recognition method and device, electronic equipment and storage medium
JP4893968B2 (en) How to compose face images
JP2022024565A (en) Face change output method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7429683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151