JP7495292B2 - Method for predicting facial changes over time - Google Patents

Method for predicting facial changes over time Download PDF

Info

Publication number
JP7495292B2
JP7495292B2 JP2020127232A JP2020127232A JP7495292B2 JP 7495292 B2 JP7495292 B2 JP 7495292B2 JP 2020127232 A JP2020127232 A JP 2020127232A JP 2020127232 A JP2020127232 A JP 2020127232A JP 7495292 B2 JP7495292 B2 JP 7495292B2
Authority
JP
Japan
Prior art keywords
face
image
information
facial
surface texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020127232A
Other languages
Japanese (ja)
Other versions
JP2022024564A (en
Inventor
崇訓 五十嵐
浩治 南
健雄 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2020127232A priority Critical patent/JP7495292B2/en
Publication of JP2022024564A publication Critical patent/JP2022024564A/en
Application granted granted Critical
Publication of JP7495292B2 publication Critical patent/JP7495292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習により得られる学習済みモデル及び顔画像データを用いて、人の顔の経時変化を予測分析する技術に関する。 The present invention relates to a technology for predicting and analyzing changes in a person's face over time using a trained model obtained through machine learning and facial image data.

下記特許文献1には、独立成分分析により顔画像からヘモグロビン色素画像、メラニン色素画像及び陰影画像を抽出し、それら抽出された画像に対して周波数成分分離及び主成分分析を適用して、色ムラの要因となるメラニン色素要因及びヘモグロビン色素要因、並びにしわやたるみ等の凹凸ムラの要因ごとの評価指標を得ることで、顔全体の評価指標を高精度に分析する技術が開示されている。
下記特許文献2には、機械学習により得られた学習済みモデルを用いて加齢化を予測する手法が開示されている。当該学習済みモデルは、顔形状の加齢による変化を予測する形状加齢モデルと、顔表面のテクスチャの加齢による変化を予測するテクスチャ加齢モデルと、二次元画像から三次元データを予測する三次元化予測モデルとを含む。この手法は、対象画像の特徴点を抽出し、抽出した特徴点を用いて対象画像における顔向きを推定し、三次元化予測モデル及び推定した顔向きに基づいて第1の三次元データを生成し、形状加齢モデルを用いて第1の三次元データから第2の三次元データを生成し、第1の三次元データに基づいて生成された二次元画像に対してテクスチャ加齢モデルを適用して、加齢化テクスチャを生成し、第2の三次元データに対して加齢化テクスチャを合成して、加齢化顔モデルを生成する。
下記非特許文献1には、色素ベクトル分析によって顔の陰影を削除すること、陰影を削除した顔画像に対して独立成分分析を適用してヘモグロビン成分及びメラニン成分を抽出すること等が開示されている。
The following Patent Document 1 discloses a technology for analyzing evaluation indices for the entire face with high precision by extracting a hemoglobin pigment image, a melanin pigment image, and a shadow image from a facial image by independent component analysis, and then applying frequency component separation and principal component analysis to these extracted images to obtain evaluation indices for melanin pigment factors and hemoglobin pigment factors that cause color unevenness, as well as for each factor of unevenness such as wrinkles and sagging.
The following Patent Document 2 discloses a method for predicting aging using a trained model obtained by machine learning. The trained model includes a shape aging model for predicting changes in face shape due to aging, a texture aging model for predicting changes in face surface texture due to aging, and a three-dimensional prediction model for predicting three-dimensional data from a two-dimensional image. This method extracts feature points of a target image, estimates a face direction in the target image using the extracted feature points, generates first three-dimensional data based on the three-dimensional prediction model and the estimated face direction, generates second three-dimensional data from the first three-dimensional data using the shape aging model, applies a texture aging model to the two-dimensional image generated based on the first three-dimensional data to generate an aging texture, and synthesizes the aging texture with the second three-dimensional data to generate an aging face model.
The following non-patent document 1 discloses a method for removing shadows from a face by pigment vector analysis, and for extracting hemoglobin and melanin components by applying independent component analysis to a face image from which the shadows have been removed.

特開2015-5281号公報JP 2015-5281 A 特開2016-194892号公報JP 2016-194892 A

Norimichi Tsumura etc., "Image-based skin color and texture analysis/synthesis by extracting hemoglobin and melanin information in the skin," acm Transactions on Graphics, Vol. 22, No. 3.pp. 770-779(2003). (Proceedings of ACM SIGGRAPH 2003)Norimichi Tsumura et al., "Image-based skin color and texture analysis/synthesis by extracting hemoglobin and melanin information in the skin," ACM Transactions on Graphics, Vol. 22, No. 3, pp. 770-779(2003). (Proceedings of ACM SIGGRAPH 2003)

上述の加齢化予測手法によれば、二次元の顔画像から加齢化テクスチャを予測することができ、他の分析手法によれば、顔画像を処理して顔表面テクスチャを変化させたり、顔の評価指標を得たりすることができる。このような現状の各手法は、顔画像の顔表面テクスチャを変化させること、或いは顔画像から何らかの評価指標を得ることに着眼しているに過ぎない。
そんな中、本発明者らは、初期の顔表面テクスチャの差異が経時変化後にどのようなテクスチャの差異として現れるのかを予測し、これを分かり易く提示することで、肌美容のための方法や製品(医療行為を除く)の効果を客観的かつ容易にユーザに把握させることができるという新たな着想を得た。
The aging prediction method described above can predict aging texture from a two-dimensional face image, and other analysis methods can process face images to change the face surface texture or obtain a face evaluation index. These current methods only focus on changing the face surface texture of a face image or obtaining some evaluation index from a face image.
In the midst of this, the inventors came up with a new idea: by predicting what kind of texture differences initial differences in facial surface texture will manifest as over time, and presenting this in an easy-to-understand manner, it would be possible for users to objectively and easily grasp the effects of skin beautification methods and products (excluding medical procedures).

本発明は、初期の顔表面テクスチャの差異が経時変化後にどのようなテクスチャの差異として現れるのかを予測し、これを把握し易いように提示する技術に関する。
本明細書で「顔表面テクスチャ」とは、顔の肌の表面又は内部に由来する空間分布特徴に相当するものである。「顔表面テクスチャ」の例として、赤みやシミ等の肌の色ムラ等や、肌の光沢、シワ、毛穴、鱗屑等の肌の表面の凹凸或いは粗さのような顔表面の空間的分布を生み出す特徴が挙げられる。また、他の例として、メイクアップ化粧料を塗布した肌においては、塗膜の付着状態や、皮脂分泌がもたらす色ムラ、光沢、表面の凹凸の不均一さのような顔表面の空間的分布を生み出す特徴もあげられる。
The present invention relates to a technique for predicting how differences in initial facial surface texture will appear as texture differences after changes over time, and presenting these in an easily understandable manner.
In this specification, the term "facial surface texture" refers to a spatial distribution feature derived from the surface or interior of facial skin. Examples of "facial surface texture" include features that generate a spatial distribution of the facial surface, such as uneven skin color, such as redness or blemishes, skin gloss, and uneven or rough skin surface, such as wrinkles, pores, and scales. Other examples include features that generate a spatial distribution of the facial surface, such as the state of adhesion of a coating film on skin to which a makeup cosmetic has been applied, uneven skin color, gloss, and uneven surface unevenness caused by sebum secretion.

本発明の態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。
本発明の態様は、時間経過前後の二次元の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって二次元の顔画像データから少なくとも経時変化後の顔表面テクスチャ情報を予測可能な学習済みモデルを利用することができる一以上のプロセッサが実行する顔経時変化予測方法に関する。この顔経時変化予測方法は、対象者の二次元の顔画像データを取得するデータ取得工程と、前記取得された二次元の顔画像データを前記学習済みモデルに適用することで予測された前記対象者の元顔の経時変化後の顔表面テクスチャ情報を含む第一経時変化顔情報を取得する第一予測工程と、前記取得された二次元の顔画像データに対して、該顔画像データに写る前記対象者の元顔から少なくとも一部の顔表面テクスチャを変化させる特定画像処理を適用することにより、前記対象者の画像操作顔を示す二次元の操作顔画像データを取得する画像操作工程と、前記取得された二次元の操作顔画像データを前記学習済みモデルに適用することで予測された前記対象者の画像操作顔の経時変化後の顔表面テクスチャ情報を含む第二経時変化顔情報を取得する第二予測工程と、前記第一経時変化顔情報及び前記第二経時変化顔情報を用いて、経時変化後の前記元顔及び前記画像操作顔に関する少なくとも顔表面テクスチャを対比可能な情報を出力部に出力する出力工程と、を含む。
また、本発明の別態様は、例えば、上記態様に係る顔経時変化予測方法を実行する顔経時変化予測装置(情報処理装置、コンピュータ)に関するものであり、上記態様に係る顔経時変化予測方法をコンピュータに実行させるプログラムに関するものであり、このようなプログラムを記録したコンピュータが読み取り可能な記憶媒体に関するものである。この記録媒体は、非一時的な有形の媒体を含む。
In order to solve the above-mentioned problems, the aspects of the present invention employ the following configurations.
An aspect of the present invention relates to a method for predicting changes over time in a face, executed by one or more processors, that can utilize a trained model obtained by machine learning using training data including multiple two-dimensional facial image data sets before and after the passage of time, and that is capable of predicting at least facial surface texture information after changes over time from two-dimensional facial image data. This method for predicting changes in face over time includes a data acquisition step of acquiring two-dimensional facial image data of a subject; a first prediction step of acquiring first time-changed facial information including facial surface texture information after a change in the original face of the subject over time predicted by applying the acquired two-dimensional facial image data to the trained model; an image manipulation step of acquiring two-dimensional manipulated facial image data showing the image-manipulated face of the subject by applying a specific image processing to the acquired two-dimensional facial image data that changes at least a portion of the facial surface texture from the original face of the subject reflected in the facial image data; a second prediction step of acquiring second time-changed facial information including facial surface texture information after a change in the image-manipulated face of the subject predicted by applying the acquired two-dimensional manipulated facial image data to the trained model; and an output step of outputting information capable of comparing at least the facial surface texture regarding the original face and the image-manipulated face after the change over time to an output unit using the first time-changed facial information and the second time-changed facial information.
Further, another aspect of the present invention relates to, for example, a facial change over time prediction device (information processing device, computer) that executes the facial change over time prediction method according to the above aspect, to a program that causes a computer to execute the facial change over time prediction method according to the above aspect, and to a computer-readable storage medium on which such a program is recorded. This recording medium includes a non-transitory tangible medium.

上記態様によれば、初期の顔表面テクスチャの差異が経時変化後にどのようなテクスチャの差異として現れるのかを予測し、これを把握し易いように提示する技術を提供することができる。 The above aspect provides a technology that predicts how differences in initial facial surface texture will appear as texture differences after changes over time, and presents these in an easy-to-understand manner.

本実施形態に係る顔経時変化予測方法を実行可能な情報処理装置のハードウェア構成例を概念的に示す図である。1 is a diagram conceptually illustrating an example of the hardware configuration of an information processing device capable of executing a face time-change prediction method according to an embodiment of the present invention. 第一実施形態に係る顔経時変化予測方法の処理の流れを示す図である。4 is a diagram showing a process flow of a face time-dependent change prediction method according to the first embodiment; 第一実施形態に係る顔経時変化予測方法の変形例に関する処理の流れを示す図である。FIG. 11 is a diagram showing a processing flow relating to a modified example of the face time-dependent change prediction method according to the first embodiment. 第二実施形態に係る顔経時変化予測方法の処理の流れを示す図である。FIG. 11 is a diagram showing a process flow of a face time-dependent change prediction method according to the second embodiment. 第二実施形態に係る顔経時変化予測方法の処理の流れを示す図である。FIG. 11 is a diagram showing a process flow of a face time-dependent change prediction method according to the second embodiment. 各種テクスチャ画像及び各種相同モデルの合成イメージを示す図である。FIG. 13 is a diagram showing a composite image of various texture images and various homologous models. 第三変形例に係る顔経時変化予測方法の処理の流れの一部を示す図である。FIG. 13 is a diagram showing a part of a process flow of a face time-dependent change prediction method according to a third modified example.

以下、本発明の好ましい実施形態の例(以降、本実施形態と表記する)について説明する。なお、以下に説明する本実施形態は例示であり、本発明は以下に挙げる構成に限定されない。 A preferred embodiment of the present invention (hereinafter, referred to as the present embodiment) will be described below. Note that the present embodiment described below is merely an example, and the present invention is not limited to the configuration described below.

本実施形態に係る顔経時変化予測方法(以下、本方法と表記する)は、一台以上の情報処理装置が備える一以上のプロセッサにより実行される。
図1は、本方法を実行可能な情報処理装置10のハードウェア構成例を概念的に示す図である。
情報処理装置10は、いわゆるコンピュータであり、CPU11、メモリ12、入出力インタフェース(I/F)13、通信ユニット14等を有する。情報処理装置10は、据え置き型のPC(Personal Computer)であってもよいし、携帯型のPC、スマートフォン、タブレット等のような携帯端末であってもよい。
The method for predicting a change over time of a face according to this embodiment (hereinafter referred to as the present method) is executed by one or more processors included in one or more information processing devices.
FIG. 1 is a diagram conceptually illustrating an example of the hardware configuration of an information processing device 10 capable of executing the present method.
The information processing device 10 is a so-called computer, and includes a CPU 11, a memory 12, an input/output interface (I/F) 13, a communication unit 14, etc. The information processing device 10 may be a stationary PC (Personal Computer), or may be a portable terminal such as a portable PC, a smartphone, or a tablet.

CPU11は、いわゆるプロセッサであり、一般的なCPU(Central Processing Unit)に加えて、特定用途向け集積回路(ASIC)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等も含まれ得る。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。
入出力I/F13は、表示装置15、入力装置16等のユーザインタフェース装置と接続可能である。表示装置15は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、CPU11等により処理された描画データに対応する画面を表示する装置である。入力装置16は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置である。表示装置15及び入力装置16は一体化され、タッチパネルとして実現されてもよい。
通信ユニット14は、通信網を介した他のコンピュータとの通信や、プリンタ等の他の機器との信号のやりとり等を行う。通信ユニット14には、可搬型記録媒体等も接続され得る。
The CPU 11 is a so-called processor, and in addition to a general CPU (Central Processing Unit), may also include an application specific integrated circuit (ASIC), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), etc. The memory 12 is a RAM (Random Access Memory), a ROM (Read Only Memory), or an auxiliary storage device (such as a hard disk).
The input/output I/F 13 can be connected to user interface devices such as a display device 15 and an input device 16. The display device 15 is a device such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display that displays a screen corresponding to drawing data processed by the CPU 11 or the like. The input device 16 is a device such as a keyboard, a mouse, etc. that accepts input of user operations. The display device 15 and the input device 16 may be integrated and realized as a touch panel.
The communication unit 14 communicates with other computers via a communication network and exchanges signals with other devices such as a printer, etc. A portable recording medium, etc. can also be connected to the communication unit 14.

情報処理装置10のハードウェア構成は、図1の例に制限されない。情報処理装置10は、図示されていない他のハードウェア要素を含んでもよい。また、各ハードウェア要素の数も、図1の例に制限されない。例えば、情報処理装置10は、複数のCPU11を有していてもよい。また、情報処理装置10は、複数の筐体からなる複数台のコンピュータにより実現されていてもよい。 The hardware configuration of the information processing device 10 is not limited to the example of FIG. 1. The information processing device 10 may include other hardware elements not shown. Furthermore, the number of each hardware element is not limited to the example of FIG. 1. For example, the information processing device 10 may have multiple CPUs 11. Furthermore, the information processing device 10 may be realized by multiple computers consisting of multiple housings.

情報処理装置10は、CPU11によりメモリ12に格納されたコンピュータプログラムが実行されることにより、本方法を実行することができる。このコンピュータプログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F13又は通信ユニット14を介してインストールされ、メモリ12に格納される。 The information processing device 10 can execute the present method by the CPU 11 executing a computer program stored in the memory 12. This computer program is installed from a portable recording medium such as a CD (Compact Disc) or memory card, or from another computer on a network, via the input/output I/F 13 or the communication unit 14, and is stored in the memory 12.

情報処理装置10(CPU11)は、教師データを用いた機械学習により得られた学習済みモデルを利用可能である。
ここでの「学習済みモデル」は、教師データを用いた機械学習、即ち教師あり学習により得られたモデルであり、AI(Artificial Intelligence)モデル、機械学習(Machine Learning(ML))モデル等と表記可能である。
本実施形態で利用される学習済みモデルは、回帰分析で得られる回帰式であってもよいし、主成分分析や、ディープラーニング(深層学習)等で得られるニューラルネットワークモデルであってもよく、そのモデルのデータ構造や学習アルゴリズム等は限定されない。例えば、当該学習済みモデルは、コンピュータプログラムとパラメータとの組合せ、複数の関数とパラメータとの組合せなどにより実現される。顔画像は例えば主成分分析を用いて次元削減・コード化の処理が為される。学習済みモデルは、ニューラルネットワークで構築される場合で、かつ、入力層、中間層及び出力層を一つのニューラルネットワークの単位と捉えた場合に、一つのニューラルネットワークを指してもよいし、複数のニューラルネットワークの組合せを指してもよい。また、学習済みモデルは、複数の重回帰式の組合せで構成されてもよいし、一つの重回帰式で構成されてもよい。
学習済みモデルは、情報処理装置10内のメモリ12に格納されていてもよいし、情報処理装置10が通信でアクセス可能な他のコンピュータのメモリに格納されていてもよい。
The information processing device 10 (CPU 11) can use a trained model obtained by machine learning using teacher data.
The "trained model" here is a model obtained by machine learning using training data, i.e., supervised learning, and can be expressed as an AI (Artificial Intelligence) model, a Machine Learning (ML) model, etc.
The trained model used in this embodiment may be a regression equation obtained by regression analysis, or may be a neural network model obtained by principal component analysis, deep learning, or the like, and the data structure and learning algorithm of the model are not limited. For example, the trained model is realized by a combination of a computer program and a parameter, or a combination of a plurality of functions and parameters. The face image is subjected to dimensional reduction and coding processing using, for example, principal component analysis. When the trained model is constructed with a neural network and the input layer, intermediate layer, and output layer are regarded as a unit of one neural network, the trained model may refer to one neural network or a combination of multiple neural networks. The trained model may also be composed of a combination of multiple multiple regression equations, or may be composed of one multiple regression equation.
The trained model may be stored in memory 12 within the information processing device 10, or may be stored in the memory of another computer that the information processing device 10 can access via communication.

このように情報処理装置10は、学習済みモデルを利用可能な装置であって顔経時変化予測方法を実行可能な顔経時変化予測装置と表記可能である。
以降、本方法で利用される学習済みモデルは、AIモデルと表記される。また、以降の説明では、本方法の実行主体をCPU11として説明する。
In this way, the information processing device 10 can be described as a facial change over time prediction device that is capable of using a trained model and executing a facial change over time prediction method.
Hereinafter, the trained model used in this method will be referred to as an AI model. In addition, in the following description, this method will be described as being executed by the CPU 11.

[第一実施形態]
以下、第一実施形態に係る顔経時変化予測方法(以下、第一方法と表記する)について図2を用いて説明する。図2は、第一実施形態に係る顔経時変化予測方法の処理の流れを示す図である。
[First embodiment]
A method for predicting change over time of a face according to a first embodiment (hereinafter, referred to as a first method) will be described below with reference to Fig. 2. Fig. 2 is a diagram showing a process flow of the method for predicting change over time of a face according to the first embodiment.

第一実施形態で利用されるAIモデルは、時間経過前後の二次元の顔画像データセットを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから経時変化後の顔表面テクスチャ情報を予測可能である。
ここで「AIモデルが経時変化後の顔表面テクスチャ情報を予測可能である」とは、AIモデルから出力される情報に基づいて経時変化後の顔表面テクスチャ情報を取得することができることを意味する。
AIモデルを用いて生成される顔表面テクスチャ情報は、顔表面のテクスチャを示す情報であればよく、画像データであってもよいし、画像データ以外の書式のデータであってもよい。本実施形態では、当該顔表面テクスチャ情報は画像データとして説明する。
また、AIモデルにより予測される経時変化は、年齢、季節、日間、朝夕等の時間経過に伴う変化であり、その経過時間の長さは制限されない。AIモデルは、5年後或いは10年後の加齢変化を予測してもよいし、一週間後或いは一か月後の変化を予測してもよいし、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品の適用後の変化を予測してもよいし、メイクアップ化粧料塗布直後から一定の時間経過後の変化を予測してもよい。このようなAIモデルにより予測される経時変化は、教師データとして利用される時間経過前後の顔画像データセットにより設定することができる。
当該教師データに含まれる二次元の顔画像データは、素顔の画像データであってもよいし、化粧顔の画像データであってもよい。例えば、メイクアップ化粧料塗布直後の化粧顔の画像データとその化粧顔から時間経過に伴い化粧崩れが生じた化粧顔の画像データとのデータセットが教師データとされてもよい。
また、当該教師データは、時間経過前後の同一人の顔画像データセットのみで形成されることが好ましいが、顔の特徴や顔のテクスチャ特徴が似ているなど、時間経過前後に相当しうる異なる二人の顔画像データセットを含んでもよいし、時間経過前又は時間経過後のいずれか一方の顔画像データとその顔画像データに対する画像処理で生成された他方の顔画像データとでデータセットを形成してもよい。
但し、教師データで用いられる顔画像データは、写る顔の向きが正規化されており、更に、当該母集団における各個人の顔の特定パーツ(目、鼻、口等)の位置が正規化された画像データとされることが望ましい。また、教師データとされる顔画像データは、可視光画像のみでなく、赤外線等の可視光以外の波長帯を撮像した画像であってもよい。
The AI model used in the first embodiment is obtained by machine learning using training data including multiple two-dimensional facial image data sets before and after time has passed, and is capable of predicting facial surface texture information after changes over time from two-dimensional facial image data.
Here, "the AI model is capable of predicting facial surface texture information after changes over time" means that facial surface texture information after changes over time can be obtained based on information output from the AI model.
The facial surface texture information generated using the AI model may be image data or data in a format other than image data as long as it indicates the texture of the facial surface. In this embodiment, the facial surface texture information will be described as image data.
In addition, the changes over time predicted by the AI model are changes over time such as age, season, day, morning and evening, and the length of time that has passed is not limited. The AI model may predict aging changes after 5 or 10 years, changes after one week or one month, changes after application of cosmetics, beauty treatments (excluding medical procedures), or beauty or health foods and beverages, or changes after a certain time has passed since applying makeup cosmetics. The changes over time predicted by such an AI model can be set by a face image data set before and after the passage of time that is used as training data.
The two-dimensional face image data included in the training data may be image data of an uncovered face or image data of a made-up face. For example, the training data may be a data set of image data of a made-up face immediately after applying makeup and image data of the made-up face after makeup has come off over time.
In addition, the training data is preferably formed only from facial image datasets of the same person before and after the passage of time, but may also include facial image datasets of two different people who may correspond before and after the passage of time, for example, because they have similar facial features or facial texture features, or a dataset may be formed from facial image data of either one person before or after the passage of time and facial image data of the other person generated by image processing of that facial image data.
However, it is desirable that the facial image data used in the training data is image data in which the orientation of the face is normalized and the positions of specific facial features (eyes, nose, mouth, etc.) of each individual in the population are normalized. Furthermore, the facial image data used as the training data may be not only visible light images, but also images captured in wavelength bands other than visible light, such as infrared light.

当該AIモデルのデータ構造及び学習手法には様々な周知技術を利用可能であり、例えば、上述の特許文献2で開示されるテクスチャ加齢モデルの生成手法や学習手法などを用いることができる。例えば、主成分分析を用いたテクスチャ加齢モデルとWAVELET変換を用いたテクスチャ加齢モデルとの両方が利用されてもよいし、どちらか一方が利用されてもよい。また、教師データ及びAIモデルに適用される二次元顔画像データは、直角座標系以外の円柱座標系等の画像に変換されてもよい。 Various well-known technologies can be used for the data structure and learning method of the AI model, such as the generation method and learning method of the texture aging model disclosed in the above-mentioned Patent Document 2. For example, both a texture aging model using principal component analysis and a texture aging model using WAVELET transformation may be used, or either one may be used. In addition, the teacher data and the two-dimensional facial image data applied to the AI model may be converted into images in a cylindrical coordinate system other than a rectangular coordinate system.

第一方法は、図2に示されるように、工程(S21)から工程(S27)を含んでいる。
工程(S21)は、対象者の二次元の顔画像データ(以降、元顔画像BOPと表記する場合がある)を取得するデータ取得工程である。以降の説明では、工程(S21)で取得された顔画像データに写る対象者の顔を元顔と表記する場合がある。
元顔画像BOPのデータは、例えば、JPEG(Joint Photographic Experts Group)形式、BMP(Bitmap image)形式、TIFF(Tagged Image File Format)形式、GIF(Graphic Interchange Format)形式等の画像ファイルとして取得される。但し、画像のデータ形式は、制限されず、各画素の明暗情報が羅列される形式であってもよい。また、取得される画像は、カラー画像であってもよいし、カラー画像がグレースケール化されることで得られるグレースケール画像であってもよい。CPU11は、顔画像を撮像したカメラから元顔画像BOPを取得してもよいし、他のコンピュータや可搬型記録媒体から元顔画像BOPを取得してもよい。
The first method includes steps (S21) to (S27) as shown in FIG.
Step (S21) is a data acquisition step for acquiring two-dimensional face image data of a subject (hereinafter, may be referred to as an original face image BOP). In the following description, the face of the subject shown in the face image data acquired in step (S21) may be referred to as an original face.
The data of the original face image BOP is acquired as an image file in, for example, JPEG (Joint Photographic Experts Group) format, BMP (Bitmap image) format, TIFF (Tagged Image File Format) format, GIF (Graphic Interchange Format) format, or the like. However, the data format of the image is not limited, and may be a format in which brightness information of each pixel is listed. The acquired image may be a color image, or a grayscale image obtained by grayscaling a color image. The CPU 11 may acquire the original face image BOP from a camera that captured the face image, or may acquire the original face image BOP from another computer or a portable recording medium.

工程(S21)で取得される元顔画像BOPでは、その画像の被写体の状態がAIモデルの教師データで用いられた顔画像のそれと整合していることが好ましい。例えば、教師データの顔画像が正面から視た顔表面テクスチャを示している場合には、元顔画像BOPも同様に、対象者の正面から視た顔表面テクスチャを示していることが好ましい。
そこで、工程(S21)では、取得された顔画像データに対して、AIモデルの教師データの顔画像と適合させる正規化処理を施すことで、元顔画像BOPを取得するようにしてもよい。この正規化処理では、例えば、画像データ内の顔の大きさや位置、顔の特定パーツ(目、鼻、口等)の位置の正規化、背景抜き等が行われる。
顔の特定パーツ(目、鼻、口等)の位置の正規化を行う場合には、工程(S21)では、取得された顔画像データに対して所定の画像認識処理を施すことで、目、鼻、口、眉などの特定パーツを自動認識するようにしてもよい。この場合、工程(S21)では、自動認識の結果が示す特定パーツの有無や位置関係などから、取得された顔画像データが利用可能か否かをチェックすることもできる。
In the original face image BOP acquired in step (S21), it is preferable that the state of the subject of the image is consistent with that of the face image used in the training data of the AI model. For example, if the face image of the training data shows a face surface texture viewed from the front, it is preferable that the original face image BOP also shows the face surface texture viewed from the front of the subject.
Therefore, in step (S21), the acquired face image data may be subjected to a normalization process to match the acquired face image data with the face image data of the AI model, thereby acquiring the original face image BOP. In this normalization process, for example, the size and position of the face in the image data, the position of specific features of the face (eyes, nose, mouth, etc.) are normalized, and the background is removed.
When normalizing the positions of specific facial features (eyes, nose, mouth, etc.), in step (S21), a predetermined image recognition process may be performed on the acquired facial image data to automatically recognize the specific features such as the eyes, nose, mouth, eyebrows, etc. In this case, in step (S21), it is also possible to check whether the acquired facial image data is usable or not based on the presence or absence and positional relationship of the specific features indicated by the result of the automatic recognition.

工程(S22)は、工程(S21)で取得された二次元の顔画像データに対して特定画像処理を適用することにより、対象者の画像操作顔を示す二次元の操作顔画像データ(以降、操作顔画像BCPと表記する場合がある)を取得する画像操作工程である。
工程(S22)で適用される特定画像処理は、元顔画像BOPに写る対象者の元顔から少なくとも一部の顔表面テクスチャを変化させる画像処理であり、経時変化後の違いを確認する目的にかなう顔表面テクスチャ変化を対象者の元顔画像BOPに与え得る処理であれば、その具体的な処理内容は制限されない。
例えば、肌の色ムラの増減に伴う経時変化後の違いを確認することを目的とする場合には、肌の赤みを増加させる画像処理、肌の赤みを減らす画像処理、シミを形成する画像処理、シミを消失させる画像処理等が適用可能である。
また、肌の光沢の増減に伴う経時変化後の違いを確認することを目的とする場合には、肌の光沢を増加させる画像処理、肌の光沢を減少させる画像処理等が適用可能である。
また、肌の表面の凹凸若しくは粗さの増減に伴う経時変化後の違いを確認することを目的とする場合には、表面しわを形成する画像処理、表面しわを消失させる画像処理、毛穴を拡大させる画像処理、毛穴を縮小させる画像処理等が適用可能である。
Step (S22) is an image manipulation step of acquiring two-dimensional manipulated face image data (hereinafter, sometimes referred to as manipulated face image BCP) showing the image-manipulated face of the subject by applying specific image processing to the two-dimensional face image data acquired in step (S21).
The specific image processing applied in step (S22) is image processing that changes at least a portion of the facial surface texture from the original face of the subject depicted in the original face image BOP, and the specific processing content is not limited as long as it is processing that can impart a facial surface texture change to the original face image BOP of the subject that is suitable for the purpose of confirming differences after changes over time.
For example, if the purpose is to check the difference over time as the unevenness of skin tone increases or decreases, image processing that increases the redness of the skin, image processing that reduces the redness of the skin, image processing that creates blemishes, image processing that removes blemishes, etc. can be applied.
In addition, if the purpose is to check the difference over time as the skin gloss increases or decreases, image processing that increases the skin gloss or image processing that decreases the skin gloss can be applied.
In addition, if the purpose is to check the differences over time due to increases and decreases in the unevenness or roughness of the skin surface, image processing that forms surface wrinkles, image processing that eliminates surface wrinkles, image processing that enlarges pores, image processing that shrinks pores, etc. can be applied.

このような顔表面テクスチャ変化を実現し得る画像処理としては、例えば、元顔画像BOPに対して独立成分分析を行うことで、ヘモグロビン色素画像、メラニン色素画像及び陰影画像を抽出し、各色素画像を多重解像度解析(二次元離散ウェーブレット変換等)を用いてそれぞれ高周波成分画像及び低周波成分画像に分離し、必要な周波数成分画像に所定の変調処理を施したのち再合成する処理が例示できる。例えば、ヘモグロビン色素画像の低周波成分画像に対してコントラスト強調処理を施すことで肌の赤みを増加させた操作顔画像BCPが生成可能である。また、ヘモグロビン色素画像の低周波成分画像に対してコントラストを低減するフィルタリング処理を施すことで肌の赤みを減少させた操作顔画像BCPが生成可能である。また、メラニン色素画像の高周波成分画像に対して同様の処理を施すことで、シミを形成した又はシミを消失させた操作顔画像BCPが生成可能である。また、陰影画像の濃度ヒストグラムの歪度を変化させることで、光沢を増減させた操作顔画像BCPが生成可能である。その他、エッジ強調フィルタやガウシアンフィルタ等を用いることで、毛穴を拡大又は縮小させた操作顔画像BCPが生成可能である。
更に言えば、工程(S22)で適用される特定画像処理は、工程(S21)で取得された二次元の顔画像データを表示装置15に表示させて、表示されている顔画像に対するユーザ操作で元顔画像BOPを変化させる画像処理であってもよい。この場合、ユーザは、目視で変化させたい部位を確認しながら入力装置16を操作することで、特定のシミやほうれい線のような特定の凹凸を消すといった所望の変化を施すことができる。このような画像処理には、既存の画像処理ソフトウェアで採用される画像処理が利用されればよい。
As an example of image processing that can realize such a change in facial surface texture, an example of the image processing is to perform independent component analysis on the original face image BOP to extract a hemoglobin pigment image, a melanin pigment image, and a shadow image, separate each pigment image into a high-frequency component image and a low-frequency component image using a multi-resolution analysis (such as a two-dimensional discrete wavelet transform), perform a predetermined modulation process on the necessary frequency component images, and then recombine them. For example, a manipulation face image BCP in which the redness of the skin is increased can be generated by performing a contrast enhancement process on the low-frequency component image of the hemoglobin pigment image. In addition, a manipulation face image BCP in which the redness of the skin is reduced can be generated by performing a filtering process that reduces the contrast on the low-frequency component image of the hemoglobin pigment image. In addition, a manipulation face image BCP in which blemishes are formed or blemishes are eliminated can be generated by performing the same process on the high-frequency component image of the melanin pigment image. In addition, a manipulation face image BCP in which the gloss is increased or decreased can be generated by changing the skewness of the density histogram of the shadow image. In addition, by using an edge emphasis filter, a Gaussian filter, or the like, it is possible to generate an operation face image BCP in which pores are enlarged or reduced.
Furthermore, the specific image processing applied in step (S22) may be image processing in which the two-dimensional face image data acquired in step (S21) is displayed on the display device 15, and the original face image BOP is changed by a user operation on the displayed face image. In this case, the user can make a desired change, such as erasing a specific irregularity such as a specific blemish or a nasolabial fold, by operating the input device 16 while visually checking the part to be changed. For such image processing, image processing adopted in existing image processing software may be used.

このように顔表面テクスチャを変化させる変化態様には様々な態様がある。そこで、第一方法は、複数の変化態様の中から、対象者の元顔において顔表面テクスチャを変化させる変化態様を特定する工程を更に含んでもよい。この場合、変化態様ごとにそれぞれ画像処理が対応付けられており、CPU11は、工程(S22)において、工程(S21)で取得された二次元の顔画像データに対して、複数種の画像処理の中の、当該特定された変化態様に対応する特定画像処理を適用することができる。
CPU11は、サポートされている複数の変化態様を示す情報を表示装置15に表示し、ユーザに所望の変化態様を選択させるようにしてもよい。そして、選択された変化態様に対応する特定画像処理が元顔画像BOPに適用されることで、操作顔画像BCPが生成されてもよい。
これにより、元顔画像BOPから、肌の赤みやしみ、光沢感、しわ、毛穴等のような顔表面テクスチャの様々な特性を変化させた操作顔画像BCPを生成することができる。結果、後述するように、顔表面テクスチャの様々な特性における違いが経時変化後にどのようなテクスチャの差異として現れるのかを予測し、これを提示することができる。また、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品ごとの効能に応じた変化態様を特定することで、それらの効能をユーザに把握させることができるようになる。
但し、CPU11は、複数の変化態様に対応する複数の特定画像処理を元顔画像BOPに適用することで、複数の変化態様に対応する複数の操作顔画像BCPを生成するようにしてもよい。また、CPU11は、操作顔画像BCPを表示装置15に表示し、テクスチャ変化の程度をユーザに指示させることで、操作顔画像BCPを更に変化させることもできる。また、CPU11は、操作顔画像BCPの表示後、ユーザにその操作顔画像BCPで処理を進めるか否かを選択させるようにすることもできる。
As described above, there are various types of change modes that change the facial surface texture. Therefore, the first method may further include a step of identifying a change mode that changes the facial surface texture in the original face of the subject from among the multiple change modes. In this case, each change mode is associated with an image process, and in step (S22), the CPU 11 can apply a specific image process corresponding to the identified change mode from among the multiple types of image processes to the two-dimensional face image data acquired in step (S21).
The CPU 11 may display information indicating a plurality of supported change modes on the display device 15, and allow the user to select a desired change mode. Then, a specific image process corresponding to the selected change mode may be applied to the original face image BOP, thereby generating an operated face image BCP.
This makes it possible to generate an manipulated face image BCP in which various characteristics of the facial surface texture, such as redness, spots, glossiness, wrinkles, pores, etc., of the skin are changed from the original face image BOP. As a result, as described below, it is possible to predict and present what kind of texture difference will appear as after changes over time due to differences in various characteristics of the facial surface texture. In addition, by identifying the change mode according to the efficacy of each cosmetic product, beauty treatment (excluding medical treatment), or food and drink for beauty or health, it becomes possible to allow the user to understand the efficacy of those products.
However, the CPU 11 may generate a plurality of operation face images BCP corresponding to a plurality of change modes by applying a plurality of specific image processes corresponding to a plurality of change modes to the original face image BOP. The CPU 11 may further change the operation face image BCP by displaying the operation face image BCP on the display device 15 and having the user indicate the degree of texture change. After displaying the operation face image BCP, the CPU 11 may also have the user select whether or not to proceed with the process with the operation face image BCP.

工程(S23)は、工程(S21)で取得された二次元の顔画像データ(元顔画像BOP)をAIモデルに適用することで予測された対象者の元顔の経時変化後の顔表面テクスチャ情報(第一経時変化顔情報)を取得する第一予測工程である。本実施形態では、工程(S23)では、第一経時変化顔情報を用いて予測元顔画像AOPが生成される。つまり、予測元顔画像AOPは、元顔画像BOPに写る対象者の元顔の顔表面テクスチャをAIモデルによる予測に基づいて経時変化させた顔表面テクスチャを示す。 Step (S23) is a first prediction step for acquiring facial surface texture information (first time-varying facial information) of the subject's original face predicted after change over time by applying the two-dimensional facial image data (original facial image BOP) acquired in step (S21) to an AI model. In this embodiment, in step (S23), a predicted original facial image AOP is generated using the first time-varying facial information. In other words, the predicted original facial image AOP indicates a facial surface texture obtained by changing the facial surface texture of the subject's original face shown in the original facial image BOP over time based on a prediction by the AI model.

工程(S24)は、工程(S22)で取得された二次元の操作顔画像データ(操作顔画像BCP)をAIモデルに適用することで予測された対象者の画像操作顔の経時変化後の顔表面テクスチャ情報(第二経時変化顔情報)を取得する第二予測工程である。本実施形態では、工程(S24)では、第二経時変化顔情報を用いて予測操作顔画像ACPが生成される。つまり、予測操作顔画像ACPは、操作顔画像BCPに写る対象者の画像操作顔の顔表面テクスチャをAIモデルによる予測に基づいて経時変化させた顔表面テクスチャを示す。 Step (S24) is a second prediction step of acquiring face surface texture information (second time-varying face information) of the image-manipulated face of the subject predicted by applying the two-dimensional manipulated face image data (manipulated face image BCP) acquired in step (S22) to an AI model. In this embodiment, in step (S24), a predicted manipulated face image ACP is generated using the second time-varying face information. In other words, the predicted manipulated face image ACP indicates a face surface texture obtained by changing the face surface texture of the image-manipulated face of the subject shown in the manipulated face image BCP over time based on a prediction by the AI model.

工程(S25)は、対象者の元顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程であり、工程(S26)は、対象者の画像操作顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程である。本実施形態において、工程(S25)では、工程(S21)で取得された元顔画像BOPと工程(S23)で取得された予測元顔画像AOPとの差異情報が取得され、工程(S26)では、工程(S22)で取得された操作顔画像BCPと工程(S24)で取得された予測操作顔画像ACPとの差異情報が取得される。
工程(S25)及び工程(S26)で取得される顔表面テクスチャ差異情報は、顔表面テクスチャ間の差異を示す情報であればよく、本実施形態では差異画像データが当該差異情報として取得される。以降、工程(S25)で取得される差異情報は差異画像ODと表記され、工程(S26)で取得される差異情報は差異画像CDと表記される場合がある。
Step (S25) is a step of acquiring face surface texture difference information before and after a time-dependent change in the original face of the subject, and step (S26) is a step of acquiring face surface texture difference information before and after a time-dependent change in the image-operated face of the subject. In this embodiment, step (S25) acquires difference information between the original face image BOP acquired in step (S21) and the predicted original face image AOP acquired in step (S23), and step (S26) acquires difference information between the operation face image BCP acquired in step (S22) and the predicted operation face image ACP acquired in step (S24).
The facial surface texture difference information acquired in steps (S25) and (S26) may be any information indicating the difference between the facial surface textures, and in this embodiment, difference image data is acquired as the difference information. Hereinafter, the difference information acquired in step (S25) may be referred to as difference image OD, and the difference information acquired in step (S26) may be referred to as difference image CD.

顔表面テクスチャの差異情報の取得手法には周知のあらゆる手法が利用可能である。例えば、差異データの抽出、差異データからの必要情報の抽出、必要情報の符号化、符号化された必要情報の可視化といった流れで当該差異情報を取得することができる。
例えば、画像間をピクセル単位若しくはブロック単位で比較して、濃淡値の差分値(符号付き又は絶対値)や比率を算出する、或いは濃淡値の比較判別を行うことで差異データを抽出できる。抽出した差異データには、電子的ノイズや、本来の顔表面テクスチャとは違う照明由来の肌のムラ情報等、不要な情報が含まれている場合がある。そこで、周波数フィルタや空間フィルタを当該抽出された差異データに適用することで不要な情報を除外することができる。また、当該差異データの中から必要な情報のみを抽出するために、モルフォロジー変換を介した抽出を行うようにしてもよい。
このように抽出された必要情報を二値化、多値化(グレード化)などで符号化し、符号化した必要情報は、色や輝度の違いとして画像化したり、ラベリングしたりして可視化できる。
Any known method can be used to obtain the facial surface texture difference information. For example, the difference information can be obtained by extracting difference data, extracting necessary information from the difference data, encoding the necessary information, and visualizing the encoded necessary information.
For example, the difference data can be extracted by comparing the images on a pixel-by-pixel or block-by-block basis to calculate the difference value (signed or absolute value) or ratio of the gray values, or by comparing and discriminating the gray values. The extracted difference data may contain unnecessary information, such as electronic noise or uneven skin information caused by lighting different from the original facial surface texture. Therefore, the unnecessary information can be removed by applying a frequency filter or a spatial filter to the extracted difference data. In addition, in order to extract only the necessary information from the difference data, extraction via morphological transformation may be performed.
The necessary information extracted in this way is coded by binarization, multi-value conversion (grading), etc., and the coded necessary information can be visualized by imaging or labeling it as differences in color or brightness.

工程(S27)は、工程(S25)で取得された対象者の元顔の経時変化前後の顔表面テクスチャ差異情報と、工程(S26)で取得された対象者の画像操作顔の経時変化前後の顔表面テクスチャ差異情報とを対比可能に出力する出力工程である。本実施形態では、対象者の元顔に関する差異画像ODと対象者の画像操作顔に関する差異画像CDとが対比可能に出力される。
工程(S27)での出力は、差異情報(差異画像)を表示装置15に表示することで実現されてもよいし、プリンタ装置に印刷することで実現されてもよいし、可搬型記録媒体や他のコンピュータに通信ユニット14を経由して送ることで実現されてもよい。
また、CPU11は、出力形態としては、両方の差異情報(差異画像)を見比べることができるようにそれらを並べて表示(出力)してもよいし、切り替え可能にいずれか一方を表示してもよいし、重畳して表示してもよい。
Step (S27) is an output step of outputting facial surface texture difference information before and after the change over time of the original face of the subject acquired in step (S25) and facial surface texture difference information before and after the change over time of the image-manipulated face of the subject acquired in step (S26) in a manner that allows comparison. In this embodiment, a difference image OD regarding the original face of the subject and a difference image CD regarding the image-manipulated face of the subject are output in a manner that allows comparison.
The output in step (S27) may be realized by displaying the difference information (difference image) on the display device 15, by printing it on a printer device, or by sending it to a portable recording medium or to another computer via the communication unit 14.
In addition, as an output format, the CPU 11 may display (output) both sets of difference information (difference images) side by side so that they can be compared, or may display either one in a switchable manner, or may display them superimposed.

また、CPU11は、差異画像OD及び差異画像CDに加えて、元顔画像BOP及び操作顔画像BCPも表示装置15に表示してもよいし、更に、予測元顔画像AOP及び予測操作顔画像ACPも表示装置15に表示してもよい。
また、工程(S27)において、CPU11は、元顔の経時変化前後の顔表面テクスチャ差異情報を元顔の顔表面テクスチャ情報に重畳させた第一重畳テクスチャ情報と、画像操作顔の経時変化前後の顔表面テクスチャ差異情報を画像操作顔の顔表面テクスチャ情報に重畳させた第二重畳テクスチャ情報とを対比可能に出力することもできる。この場合、本実施形態では、CPU11は、差異画像ODと元顔画像BOPとを重畳させた第一重畳画像と、差異画像CDと元顔画像BOP又は操作顔画像BCPとを重畳させた第二重畳画像とを対比可能に出力することができる。
これによれば、元顔又は画像操作顔の顔表面テクスチャに経時変化前後の差異情報が重畳されるため、差異の把握性を向上させることができる。
In addition to the difference images OD and CD, the CPU 11 may also display the original face image BOP and the operation face image BCP on the display device 15, and may further display a predicted original face image AOP and a predicted operation face image ACP on the display device 15.
In step (S27), the CPU 11 can also output a first superimposed texture information obtained by superimposing facial surface texture difference information before and after the change over time of the original face on the facial surface texture information of the original face, and a second superimposed texture information obtained by superimposing facial surface texture difference information before and after the change over time of the image-manipulated face on the facial surface texture information of the image-manipulated face, so as to be contrasted. In this case, in this embodiment, the CPU 11 can output a first superimposed image obtained by superimposing the difference image OD and the original face image BOP, and a second superimposed image obtained by superimposing the difference image CD and the original face image BOP or the manipulated face image BCP, so as to be contrasted.
According to this, difference information before and after the change over time is superimposed on the facial surface texture of the original face or the image-manipulated face, thereby improving the comprehension of the difference.

このように、対象者に関して、元顔の経時変化前後の顔表面テクスチャの差異情報と、画像操作顔の経時変化前後の顔表面テクスチャ差異情報とを対比可能に出力することで、元顔及び画像操作顔の各々について予測される顔表面テクスチャの経時変化を分かり易く提示することができると共に、元顔と画像操作顔との顔表面テクスチャの差異が経時変化後にどのようなテクスチャの差異として現れるのかを把握し易いように提示することができる。
ところで、予測された経時変化後の顔表面テクスチャ情報(予測元顔画像AOP及び予測操作顔画像ACP)は、対象者にとって望ましくないテクスチャ状態を示している可能性があり、それを見た対象者は不快に感じる可能性がある。一方で、顔表面テクスチャ差異情報は、差異を示しているため、顔表面テクスチャそのものを認識させ難くなっている。
そこで、予測された経時変化後の顔表面テクスチャ情報(予測元顔画像AOP及び予測操作顔画像ACP)を出力せずに、両方の差異情報を出力することで、対象者に不快感を与えずに済み、上述の効果を一層高めることができる。
In this way, by outputting facial surface texture difference information for a subject before and after a change in the original face over time and facial surface texture difference information for before and after a change in the image-manipulated face over time in a manner that allows for comparison, the predicted changes in facial surface texture over time for each of the original face and the image-manipulated face can be presented in an easy-to-understand manner, and the changes in facial surface texture between the original face and the image-manipulated face can be presented in an easy-to-understand manner to allow for easy understanding of what kind of texture differences will appear as after the change over time.
Incidentally, the facial surface texture information after the predicted time-dependent change (the predicted original facial image AOP and the predicted operated facial image ACP) may indicate a texture state that is undesirable for the subject, and the subject may feel uncomfortable when he or she sees it. On the other hand, the facial surface texture difference information indicates a difference, making it difficult to recognize the facial surface texture itself.
Therefore, by outputting the difference information between the predicted facial surface texture information after time-dependent changes (the predicted original facial image AOP and the predicted operated facial image ACP) and not outputting the information, the subject is not made to feel uncomfortable, and the above-mentioned effect can be further enhanced.

また、対象者の顔が写る元顔画像BOPを準備するだけで、対象者の顔に対して直接何か施すことなく、画像処理により仮想的に、肌の赤みやしみ、光沢感、しわ、毛穴等のような顔表面テクスチャの特性を目的に沿って変化させた操作顔画像BCPを生成することができる。よって、対象者にとっては簡単に上述の効果を得ることができると共に、化粧料、美容施術(医療行為を除く)又は美容用若しくは健康用の飲食品ごとの効能を容易に把握することができる。 In addition, by simply preparing an original face image BOP that shows the subject's face, it is possible to virtually generate an manipulated face image BCP by image processing, in which the characteristics of the facial surface texture, such as redness, blemishes, glossiness, wrinkles, pores, etc., of the skin are changed according to the purpose, without doing anything directly to the subject's face. Therefore, the subject can easily obtain the above-mentioned effects, and can easily understand the efficacy of each cosmetic product, beauty treatment (excluding medical procedures), or beauty or health food and drink.

[第一変形例]
上述の第一実施形態では、工程(S25)及び工程(S26)にて、対象者の元顔及び画像操作顔の各々の顔表面テクスチャについて経時変化前後の差異情報がそれぞれ取得されたが、経時変化前と経時変化後との各々について元顔と画像操作顔との間の顔表面テクスチャの差異情報が取得されるようにしてもよい。即ち、二次元の顔画像データに対応する元顔の経時変化前の顔表面テクスチャ情報と二次元の操作顔画像データに対応する画像操作顔の経時変化前の顔表面テクスチャ情報との差異を示す経時変化前の顔表面テクスチャ差異情報、及び元顔の経時変化後の顔表面テクスチャ情報と画像操作顔の経時変化後の顔表面テクスチャ情報との差異を示す経時変化後の顔表面テクスチャ差異情報が取得されてもよい。具体的には、工程(S21)で取得された元顔画像BOPと工程(S22)で取得された操作顔画像BCPとの差異情報(差異画像)が取得され、工程(S23)で取得された予測元顔画像AOPと工程(S24)で取得された予測操作顔画像ACPとの差異情報(差異画像)が取得される。
この場合、工程(S27)では、第一実施形態で述べた出力に加えて又は替えて、経時変化前の顔表面テクスチャ差異情報と経時変化後の顔表面テクスチャ差異情報とが対比可能に出力される。
[First Modification]
In the first embodiment described above, in steps (S25) and (S26), the difference information before and after the change over time for each of the facial surface textures of the original face and the image-operated face of the subject is obtained, but the difference information of the facial surface texture between the original face and the image-operated face before and after the change over time may be obtained. That is, facial surface texture difference information before the change over time indicating the difference between the facial surface texture information before the change over time of the original face corresponding to the two-dimensional facial image data and the facial surface texture information before the change over time of the image-operated face corresponding to the two-dimensional operated face image data, and facial surface texture difference information after the change over time indicating the difference between the facial surface texture information after the change over time of the original face and the facial surface texture information after the change over time of the image-operated face may be obtained. Specifically, difference information (difference image) is obtained between the original face image BOP obtained in step (S21) and the operated face image BCP obtained in step (S22), and difference information (difference image) is obtained between the predicted original face image AOP obtained in step (S23) and the predicted operated face image ACP obtained in step (S24).
In this case, in step (S27), in addition to or instead of the output described in the first embodiment, facial surface texture difference information before and after the change over time is output so as to be comparable.

また、上述の第一実施形態及び第一変形例では、工程(S27)において差異情報が対比可能に出力されたが、差異情報に加えて又は替えて、経時変化後の元顔及び画像操作顔の顔表面テクスチャ情報どうしが対比可能に出力されてもよい。
図3は、第一実施形態に係る顔経時変化予測方法の変形例に関する処理の流れを示す図である。図3の例では、予測元顔画像AOPと予測操作顔画像ACPとが対比可能に出力される。
このように、工程(S27)では、経時変化後の元顔及び画像操作顔に関する少なくとも顔表面テクスチャを対比可能な情報が出力されればよい。
In addition, in the first embodiment and the first modified example described above, the difference information is output in step (S27) so as to be comparable, but in addition to or instead of the difference information, facial surface texture information of the original face and the image-operated face after changes over time may be output so as to be comparable.
3 is a diagram showing a process flow relating to a modified example of the method for predicting a change over time of a face according to the first embodiment. In the example of Fig. 3, a predicted original face image AOP and a predicted operated face image ACP are output so as to be comparable to each other.
In this way, in step (S27), it is sufficient to output information that allows comparison of at least the facial surface textures of the original face and the image-manipulated face after changes over time.

[第二実施形態]
上述の第一実施形態及びその変形例では、対象者の二次元顔画像データ(元顔画像BOP)に基づいて、顔表面テクスチャ情報の経時変化予測及び顔表面テクスチャ情報間の差異の取得が行われた。
第二実施形態では、顔表面テクスチャ情報に加えて、対象者の三次元の顔形状情報が処理対象とされる。以下、第二実施形態に係る顔経時変化予測方法(以下、第二方法と表記する)について、第一実施形態と異なる内容を中心に説明する。以下の説明では、第一実施形態と同様の内容については適宜省略する。
[Second embodiment]
In the above-described first embodiment and its modified example, prediction of changes over time in facial surface texture information and acquisition of differences between pieces of facial surface texture information are performed based on two-dimensional facial image data (original facial image BOP) of a subject.
In the second embodiment, in addition to facial surface texture information, three-dimensional facial shape information of the subject is processed. The following describes a method for predicting changes over time of a face according to the second embodiment (hereinafter referred to as the second method), focusing on differences from the first embodiment. In the following description, the same contents as those of the first embodiment will be omitted as appropriate.

図4及び図5は、第二実施形態に係る顔経時変化予測方法の処理の流れを示す図であり、図4は前半の流れを示し、図5は後半の流れを示す。
第二実施形態で利用されるAIモデルは、時間経過前後の二次元の顔画像データセット及び三次元の顔形状情報セットを複数含む教師データを用いた機械学習により得られ、二次元の顔画像データから、経時変化後における三次元の顔形状情報及びその顔形状情報に適合する顔表面テクスチャ情報を予測可能である。
ここで「AIモデルが経時変化後の顔形状情報及び顔表面テクスチャ情報を予測可能である」とは、AIモデルから出力される情報に基づいて経時変化後の顔形状情報及び顔表面テクスチャ情報を取得することができることを意味する。
第二実施形態で用いられる三次元の顔形状情報は、顔の三次元形状を示す情報であればよく、その形式等は制限されない。但し、当該三次元の顔形状情報は、統計的な処理を可能とするために、どの個体のデータも同数の同じトポロジーのデータ点で表現するべく、モデリングが施された情報とされることが好ましい。更には、当該三次元の顔形状情報は、各データ点が解剖学的に同じ意味をもつよう定義された相同モデルで表現されることがより好ましい。
このため、第二実施形態における三次元の顔形状情報は、各個人の顔形状を解剖学的に対応付けられた同一頂点数及び同一位相幾何構造のポリゴンで標準化して表現する相同モデルであり、三次元座標データで示される。以下の説明では、三次元の顔形状情報を相同モデルと表記する場合もある。
4 and 5 are diagrams showing the flow of processing in the face time-dependent change prediction method according to the second embodiment, with FIG. 4 showing the first half of the flow and FIG. 5 showing the latter half of the flow.
The AI model used in the second embodiment is obtained by machine learning using training data including multiple sets of two-dimensional facial image data before and after time and multiple sets of three-dimensional facial shape information, and is capable of predicting three-dimensional facial shape information after changes over time and facial surface texture information that matches that facial shape information from two-dimensional facial image data.
Here, "the AI model is capable of predicting facial shape information and facial surface texture information after changes over time" means that facial shape information and facial surface texture information after changes over time can be obtained based on information output from the AI model.
The three-dimensional face shape information used in the second embodiment may be information indicating the three-dimensional shape of the face, and the format thereof is not limited. However, the three-dimensional face shape information is preferably modeled information so that data of each individual is expressed by the same number of data points of the same topology in order to enable statistical processing. Furthermore, it is more preferable that the three-dimensional face shape information is expressed by a homology model defined so that each data point has the same anatomical meaning.
For this reason, the three-dimensional face shape information in the second embodiment is a homology model that standardizes and expresses the face shape of each individual using polygons with the same number of vertices and the same topological geometric structure that are anatomically associated, and is shown as three-dimensional coordinate data. In the following description, the three-dimensional face shape information may also be referred to as a homology model.

第二実施形態におけるAIモデルは、図4に示されるように、三次元予測モデル、テクスチャ経時変化モデル及び形状経時変化モデルを少なくとも含む。
三次元予測モデルは、二次元の顔画像データとそれに対応する三次元の顔形状情報(相同モデル)とのペアを教師データとする機械学習により得ることができ、二次元の顔画像データから、三次元の顔形状情報(相同モデル)を予測可能である。この三次元予測モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能であり、例えば、上述の特許文献2で開示される手法で生成された三次元予測モデルが利用可能である。
形状経時変化モデルは、複数人の母集団における時間経過前後の同一人の三次元の顔形状情報(相同モデル)ペアを教師データとする機械学習により得ることができ、三次元予測モデルで予測された三次元の顔形状情報(相同モデル)から経時変化後における三次元の顔形状情報(相同モデル)を予測可能である。この形状経時変化モデルのデータ構造、生成手法や学習手法には、周知の様々な手法が採用可能であり、例えば、上述の特許文献2で開示される手法で生成された三次元化予測モデルが利用可能である。
テクスチャ経時変化モデルは、上述の第一実施形態におけるテクスチャ経時変化モデルと同様である。但し、第二実施形態におけるテクスチャ経時変化モデルは、当該母集団に含まれる各個人の顔表面テクスチャを示しかつその顔の相同モデルに適応するように正規化された顔表面テクスチャ情報(顔画像)を教師データとして用いる機械学習により得られており、そのような顔表面テクスチャ情報(顔画像)から経時変化後の顔表面テクスチャ情報を予測可能である。
第二実施形態におけるテクスチャ経時変化モデル及び形状経時変化モデルにより予測される経時変化については、第一実施形態で述べたとおりであり、年齢、季節、日間、朝夕等の時間経過に伴う変化であり、その経過時間の長さは制限されない。
As shown in FIG. 4, the AI model in the second embodiment includes at least a three-dimensional prediction model, a texture time-varying model, and a shape time-varying model.
The three-dimensional prediction model can be obtained by machine learning using a pair of two-dimensional face image data and corresponding three-dimensional face shape information (homology model) as training data, and can predict the three-dimensional face shape information (homology model) from the two-dimensional face image data. Various well-known methods can be adopted for the data structure, generation method, and learning method of this three-dimensional prediction model, and for example, a three-dimensional prediction model generated by the method disclosed in the above-mentioned Patent Document 2 can be used.
The shape change over time model can be obtained by machine learning using a pair of three-dimensional face shape information (homology model) of the same person before and after the passage of time in a population of multiple people as training data, and it is possible to predict three-dimensional face shape information (homology model) after the change over time from the three-dimensional face shape information (homology model) predicted by the three-dimensional prediction model. Various well-known methods can be adopted for the data structure, generation method, and learning method of this shape change over time model, and for example, a three-dimensional prediction model generated by the method disclosed in the above-mentioned Patent Document 2 can be used.
The texture time-varying model is similar to the texture time-varying model in the above-mentioned first embodiment, except that the texture time-varying model in the second embodiment is obtained by machine learning using, as training data, facial surface texture information (facial images) that indicates the facial surface texture of each individual included in the population and that is normalized so as to fit the homology model of the face, and is capable of predicting facial surface texture information after time-varying from such facial surface texture information (facial images).
The changes over time predicted by the texture change model and shape change model in the second embodiment are as described in the first embodiment, and are changes that occur over time, such as with age, season, day, morning and evening, etc., and there is no limit to the length of time that has passed.

第二方法は、図4及び図5に示されるように、工程(S41)から工程(S51)を含んでいる。
工程(S41)及び工程(S42)は、第一実施形態における工程(S21)及び工程(S22)と同様である。即ち、工程(S41)は、対象者の二次元の顔画像データ(元顔画像BOP)を取得するデータ取得工程であり、工程(S42)は、工程(S41)で取得された二次元の顔画像データに対して特定画像処理を適用することにより、対象者の画像操作顔を示す二次元の操作顔画像データ(操作顔画像BCP)を取得する画像操作工程である。
The second method includes steps (S41) to (S51) as shown in FIG.
Step (S41) and step (S42) are the same as step (S21) and step (S22) in the first embodiment. That is, step (S41) is a data acquisition step for acquiring two-dimensional face image data (original face image BOP) of the subject, and step (S42) is an image manipulation step for acquiring two-dimensional manipulated face image data (manipulated face image BCP) showing the image-manipulated face of the subject by applying specific image processing to the two-dimensional face image data acquired in step (S41).

工程(S43)は、工程(S41)で取得された二次元の顔画像データ(元顔画像BOP)をAIモデルの三次元予測モデルに適用することで予測された対象者の元顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第一の三次元顔情報を取得する工程である。
本実施形態では、工程(S43)では、第一の三次元顔情報を用いて元顔テクスチャ画像BOT及び元顔相同モデルBOFが生成される。具体的には、まず、三次元予測モデルを用いて元顔画像BOPから元顔相同モデルBOFが生成される。元顔相同モデルBOFは、対象者の元顔に関する三次元の顔形状情報であり、メッシュデータ(三次元座標データ)として示される。続いて、その生成された元顔相同モデルBOFを用いて元顔画像BOPから元顔テクスチャ画像BOTが生成される。元顔テクスチャ画像BOTは、対象者の元顔に関する顔表面テクスチャ情報であり、元顔相同モデルBOFに適応するように正規化された画像情報である。この正規化では、例えば、元顔画像BOPの各特徴点(特定パーツ)の位置が元顔相同モデルBOFに合わされたり、元顔画像BOPに含まれていないテクスチャ情報の補完や円柱座標系への変換等が行われる。
Step (S43) is a step of acquiring first three-dimensional face information including facial shape information and facial surface texture information of the subject's original face before changes over time, predicted by applying the two-dimensional face image data (original face image BOP) acquired in step (S41) to a three-dimensional prediction model of the AI model.
In this embodiment, in step (S43), the original face texture image BOT and the original face homology model BOF are generated using the first three-dimensional face information. Specifically, first, the original face homology model BOF is generated from the original face image BOP using a three-dimensional prediction model. The original face homology model BOF is three-dimensional face shape information related to the original face of the subject, and is shown as mesh data (three-dimensional coordinate data). Next, the original face texture image BOT is generated from the original face image BOP using the generated original face homology model BOF. The original face texture image BOT is face surface texture information related to the original face of the subject, and is image information normalized to fit the original face homology model BOF. In this normalization, for example, the position of each feature point (specific part) of the original face image BOP is matched to the original face homology model BOF, texture information not included in the original face image BOP is complemented, and conversion to a cylindrical coordinate system is performed.

工程(S44)は、工程(S42)で取得された二次元の操作顔画像データ(操作顔画像BCP)をAIモデルの三次元予測モデルに適用することで予測された対象者の画像操作顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第二の三次元顔情報を取得する工程である。
本実施形態では、工程(S44)では、第二の三次元顔情報を用いて操作顔テクスチャ画像BCT及び操作顔相同モデルBCFが生成される。具体的には、まず、三次元予測モデルを用いて操作顔画像BCPから操作顔相同モデルBCFが生成される。操作顔相同モデルBCFは、対象者の画像操作顔に関する三次元の顔形状情報であり、メッシュデータ(三次元座標データ)として示される。続いて、その生成された操作顔相同モデルBCFを用いて操作顔画像BCPから操作顔テクスチャ画像BCTが生成される。操作顔テクスチャ画像BCTは、対象者の画像操作顔に関する顔表面テクスチャ情報であり、操作顔相同モデルBCFに適応するように正規化された画像情報である。この正規化では、例えば、操作顔画像BCPの各特徴点(特定パーツ)の位置が操作顔相同モデルBCFに合わされたり、操作顔画像BCPに含まれていないテクスチャ情報の補完や円柱座標系への変換等が行われる。
Step (S44) is a step of acquiring second three-dimensional face information including facial shape information and facial surface texture information before the image-operated face of the subject predicted by applying the two-dimensional manipulated face image data (operated face image BCP) acquired in step (S42) to a three-dimensional prediction model of the AI model.
In this embodiment, in step (S44), the operation face texture image BCT and the operation face homology model BCF are generated using the second three-dimensional face information. Specifically, first, the operation face homology model BCF is generated from the operation face image BCP using a three-dimensional prediction model. The operation face homology model BCF is three-dimensional face shape information related to the image operation face of the subject, and is shown as mesh data (three-dimensional coordinate data). Next, the operation face texture image BCT is generated from the operation face image BCP using the generated operation face homology model BCF. The operation face texture image BCT is face surface texture information related to the image operation face of the subject, and is image information normalized to fit the operation face homology model BCF. In this normalization, for example, the position of each feature point (specific part) of the operation face image BCP is matched to the operation face homology model BCF, texture information not included in the operation face image BCP is complemented, and conversion to a cylindrical coordinate system is performed.

このように、元顔テクスチャ画像BOT及び元顔相同モデルBOFは、AIモデルの三次元予測モデルを用いて対象者の元顔の二次元の顔画像データから生成された、対象者の元顔の経時変化前の三次元の顔情報であり、操作顔テクスチャ画像BCT及び操作顔相同モデルBCFは、その三次元予測モデルを用いて対象者の画像操作顔の二次元の顔画像データ(操作顔画像データ)から生成された、対象者の画像操作顔の経時変化前の三次元の顔情報である。 In this way, the original face texture image BOT and the original face homology model BOF are three-dimensional facial information of the subject's original face before it changes over time, generated from two-dimensional facial image data of the subject's original face using the three-dimensional prediction model of the AI model, and the manipulated face texture image BCT and the manipulated face homology model BCF are three-dimensional facial information of the subject's image-manipulated face before it changes over time, generated from two-dimensional facial image data (manipulated face image data) of the subject's image-manipulated face using that three-dimensional prediction model.

工程(S45)は、工程(S43)で取得された対象者の元顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第一の三次元顔情報から、AIモデルを用いて、対象者の元顔の経時変化後の顔形状情報及び顔表面テクスチャ情報を含む第一経時変化顔情報を取得する工程である。本実施形態では、工程(S43)で取得された元顔テクスチャ画像BOTをAIモデルのテクスチャ経時変化モデルに適用することで、予測元顔テクスチャ画像AOTが生成され、工程(S43)で取得された元顔相同モデルBOFをAIモデルの形状経時変化モデルに適用することで、予測元顔相同モデルAOFが生成される。 Step (S45) is a step of acquiring first time-varying face information including face shape information and face surface texture information of the subject's original face after the time-varying from the first three-dimensional face information acquired in step (S43) including face shape information and face surface texture information before the time-varying. In this embodiment, the original face texture image BOT acquired in step (S43) is applied to the texture time-varying model of the AI model to generate a predicted original face texture image AOT, and the original face homology model BOF acquired in step (S43) is applied to the shape time-varying model of the AI model to generate a predicted original face homology model AOF.

工程(S46)は、工程(S44)で取得された対象者の画像操作顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第二の三次元顔情報から、AIモデルを用いて、対象者の画像操作顔の経時変化後の顔形状情報及び顔表面テクスチャ情報を含む第二経時変化顔情報を取得する工程である。本実施形態では、工程(S44)で取得された操作顔テクスチャ画像BCTをAIモデルのテクスチャ経時変化モデルに適用することで、予測操作顔テクスチャ画像ACTが生成され、工程(S44)で取得された操作顔相同モデルBCFをAIモデルの形状経時変化モデルに適用することで、予測操作顔相同モデルACFが生成される。 Step (S46) is a step of acquiring second time-varying face information including face shape information and face surface texture information after the image-manipulated face of the subject changes over time from the second three-dimensional face information including face shape information and face surface texture information of the image-manipulated face of the subject acquired in step (S44) before the change over time. In this embodiment, the manipulated face texture image BCT acquired in step (S44) is applied to the texture time-varying model of the AI model to generate a predicted manipulated face texture image ACT, and the manipulated face homology model BCF acquired in step (S44) is applied to the shape time-varying model of the AI model to generate a predicted manipulated face homology model ACF.

工程(S47)は、対象者の元顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程であり、工程(S48)は、対象者の画像操作顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程である。本実施形態において、工程(S47)では、工程(S43)で取得された元顔テクスチャ画像BOTと工程(S45)で取得された予測元顔テクスチャ画像AOTとの差異情報が取得され、工程(S48)では、工程(S44)で取得された操作顔テクスチャ画像BCTと工程(S46)で取得された予測操作顔テクスチャ画像ACTとの差異情報が取得される。
工程(S47)及び工程(S48)で取得される顔表面テクスチャ差異情報は、顔表面テクスチャ間の差異を示す情報であればよく、本実施形態では差異画像データが当該差異情報として取得される。以降、工程(S47)で取得される差異情報は差異テクスチャ画像TODと表記され、工程(S48)で取得される差異情報は差異テクスチャ画像TCDと表記される場合がある。
工程(S47)及び工程(S48)における差異情報の取得手法については、第一実施形態における工程(S25)及び工程(S26)と同様である。
Step (S47) is a step of acquiring face surface texture difference information before and after a time-dependent change in the original face of the subject, and step (S48) is a step of acquiring face surface texture difference information before and after a time-dependent change in the image-operated face of the subject. In this embodiment, step (S47) acquires difference information between the original face texture image BOT acquired in step (S43) and the predicted original face texture image AOT acquired in step (S45), and step (S48) acquires difference information between the operation face texture image BCT acquired in step (S44) and the predicted operation face texture image ACT acquired in step (S46).
The facial surface texture difference information acquired in steps (S47) and (S48) may be any information indicating the difference between the facial surface textures, and in this embodiment, difference image data is acquired as the difference information. Hereinafter, the difference information acquired in step (S47) may be referred to as a difference texture image TOD, and the difference information acquired in step (S48) may be referred to as a difference texture image TCD.
The method of acquiring the difference information in step (S47) and step (S48) is similar to that in step (S25) and step (S26) in the first embodiment.

工程(S49)は、工程(S47)で取得された対象者の元顔の経時変化前後の顔表面テクスチャ差異情報(差異テクスチャ画像TOD)を、工程(S43)で取得された元顔相同モデルBOF又は工程(S45)で取得された予測元顔相同モデルAOFと合成する工程である。
工程(S50)は、工程(S48)で取得された対象者の画像操作顔の経時変化前後の顔表面テクスチャ差異情報(差異テクスチャ画像TCD)を、工程(S44)で取得された操作顔相同モデルBCF又は工程(S46)で取得された予測操作顔相同モデルACFと合成する工程である。
これにより、工程(S49)で生成される三次元の顔画像データは、元顔の経時変化前の三次元顔形状又は元顔の経時変化後の三次元顔形状を持ち、元顔の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元の顔画像を示す。この顔画像データで示される顔画像は、三次元差異画像DODと表記される。
一方で、工程(S50)で生成される三次元の顔画像データは、画像操作顔の経時変化前の三次元顔形状又は画像操作顔の経時変化後の三次元顔形状を持ち、画像操作顔の経時変化前後の顔表面テクスチャの差異情報をテクスチャ情報として持つ三次元の顔画像を示す。この顔画像データで示される顔画像は、三次元差異画像DCDと表記される。
Step (S49) is a step of combining facial surface texture difference information (difference texture image TOD) before and after the time-dependent change of the subject's original face obtained in step (S47) with the original face homology model BOF obtained in step (S43) or the predicted original face homology model AOF obtained in step (S45).
Step (S50) is a step of synthesizing facial surface texture difference information (difference texture image TCD) before and after the time-dependent change of the image-manipulated face of the subject obtained in step (S48) with the manipulated face homology model BCF obtained in step (S44) or the predicted manipulated face homology model ACF obtained in step (S46).
As a result, the three-dimensional facial image data generated in step (S49) shows a three-dimensional facial image having a three-dimensional facial shape of the original face before or after the change over time, and having difference information of the facial surface texture before and after the change over time of the original face as texture information. The facial image shown by this facial image data is represented as a three-dimensional difference image DOD.
On the other hand, the three-dimensional face image data generated in step (S50) shows a three-dimensional face image having a three-dimensional face shape before the image-manipulated face changes over time or a three-dimensional face shape after the image-manipulated face changes over time, and having difference information of the face surface texture before and after the image-manipulated face changes over time as texture information. The face image shown by this face image data is expressed as a three-dimensional difference image DCD.

工程(S51)は、工程(S49)で取得された三次元差異画像DODと工程(S50)で取得された三次元差異画像DCDとを対比可能に出力する出力工程である。工程(S51)での出力手法及び出力形態は、第一実施形態における工程(S27)と同様である。
このように、元顔及び画像操作顔の各々について、経時変化前後の顔表面テクスチャの差異情報を三次元の顔形状で示す三次元差異画像DOD及びDCDとして出力することで、経時変化前後の顔表面テクスチャの差異を把握し易くすることができる。
CPU11は、当該三次元差異画像DOD及びDCDを多視点映像として出力することができる。多視点映像としては、例えば、入力装置16を用いたユーザ操作により自由に視点を変えることができる自由視点画像や、三次元ディスプレイ、仮想現実(VR)、拡張現実(AR)等を用いた立体表示等がある。
このように、当該差異情報を多視点映像として出力することで、様々な視点で顔表面テクスチャの差異を確認することができる。
結果、元顔と画像操作顔との顔表面テクスチャの差異が経時変化後にどのようなテクスチャの差異として現れるのかを把握し易いように提示することができる。
また、三次元の顔画像のテクスチャとして予測された経時変化後の顔表面テクスチャ情報(予測元顔テクスチャ画像AOT及び予測操作顔テクスチャ画像ACT)をそのまま出力することなく、差異情報として出力することで、対象者に不快感を与える可能性を低減することができる。
Step (S51) is an output step of outputting the three-dimensional difference image DOD acquired in step (S49) and the three-dimensional difference image DCD acquired in step (S50) so as to be comparable. The output method and output form in step (S51) are the same as those in step (S27) in the first embodiment.
In this way, by outputting the difference information in the facial surface texture before and after the change over time for each of the original face and the image-manipulated face as three-dimensional difference images DOD and DCD that show the three-dimensional facial shape, it is possible to easily grasp the difference in the facial surface texture before and after the change over time.
The CPU 11 can output the three-dimensional difference images DOD and DCD as multi-viewpoint images. Examples of multi-viewpoint images include free viewpoint images in which the viewpoint can be freely changed by a user operation using the input device 16, and stereoscopic displays using a three-dimensional display, virtual reality (VR), augmented reality (AR), and the like.
In this way, by outputting the difference information as a multi-viewpoint video, the differences in facial surface texture can be confirmed from various viewpoints.
As a result, it is possible to present in an easy-to-understand manner how the difference in facial surface texture between the original face and the image-manipulated face appears as a difference in texture after a change over time.
In addition, by outputting the facial surface texture information after time-dependent changes predicted as the texture of the three-dimensional facial image (the predicted original facial texture image AOT and the predicted operated facial texture image ACT) as difference information rather than as is, the possibility of causing discomfort to the subject can be reduced.

ところで、図6に示されるように、上述のように取得された各種テクスチャ画像及び各種相同モデルを合成することで、様々な三次元の顔画像が生成可能である。図6は、各種テクスチャ画像及び各種相同モデルの合成イメージを示す図である。
具体的には、元顔テクスチャ画像BOT及び元顔相同モデルBOFを合成することで、対象者の元顔の経時変化前の三次元顔画像BODが生成可能であり、操作顔テクスチャ画像BCT及び操作顔相同モデルBCFを合成することで、対象者の画像操作顔の経時変化前の三次元顔画像BCDが生成可能である。
また、予測元顔テクスチャ画像AOT及び予測元顔相同モデルAOFを合成することで、対象者の元顔の経時変化後の三次元顔画像AODが生成可能であり、予測操作顔テクスチャ画像ACT及び予測操作顔相同モデルACFを合成することで、対象者の画像操作顔の経時変化後の三次元顔画像ACDが生成可能である。
Meanwhile, various three-dimensional face images can be generated by synthesizing various texture images and various homologous models acquired as described above, as shown in Fig. 6. Fig. 6 is a diagram showing a synthesis image of various texture images and various homologous models.
Specifically, by combining the original face texture image BOT and the original face homology model BOF, a three-dimensional face image BOD of the subject's original face before it changed over time can be generated, and by combining the manipulated face texture image BCT and the manipulated face homology model BCF, a three-dimensional face image BCD of the subject's image manipulated face before it changed over time can be generated.
In addition, by combining the predicted original face texture image AOT and the predicted original face homology model AOF, a three-dimensional face image AOD of the subject's original face after it has changed over time can be generated, and by combining the predicted manipulated face texture image ACT and the predicted manipulated face homology model ACF, a three-dimensional face image ACD of the subject's image manipulated face after it has changed over time can be generated.

CPU11は、三次元差異画像DOD及びDCDに加えて、経時変化前の元顔及び画像操作顔の三次元顔画像BOD及びBCDを対比可能に表示装置15に表示してもよいし、更に、経時変化後の元顔及び画像操作顔の三次元顔画像AOD及びACDを対比可能に表示装置15に表示してもよい。
また、工程(S51)において、CPU11は、元顔の経時変化前後の顔表面テクスチャ差異情報(差異テクスチャ画像TOD)を元顔の顔表面テクスチャ情報(元顔テクスチャ画像BOT又は予測元顔テクスチャ画像AOT)に重畳させて、元顔の三次元顔形状情報(元顔相同モデルBOF又は予測元顔相同モデルAOF)で三次元化した第一重畳差異顔画像と、画像操作顔の経時変化前後の顔表面テクスチャ差異情報(差異テクスチャ画像TCD)を画像操作顔の顔表面テクスチャ情報(操作顔テクスチャ画像BCT又は予測操作顔テクスチャ画像ACT)に重畳させて、画像操作顔の三次元顔形状情報(操作顔相同モデルBCF又は予測操作顔相同モデルACF)で三次元化した第二重畳差異顔画像とを対比可能に出力することもできる。
これによれば、元顔又は画像操作顔の顔表面テクスチャに経時変化前後の差異情報が重畳されるため、差異の把握性を向上させることができる。
In addition to the three-dimensional difference images DOD and DCD, the CPU 11 may display on the display device 15 three-dimensional facial images BOD and BCD of the original face and the image-manipulated face before the change over time so that they can be compared, and may further display on the display device 15 three-dimensional facial images AOD and ACD of the original face and the image-manipulated face after the change over time so that they can be compared.
In addition, in step (S51), the CPU 11 can also output a first superimposed difference face image that has been three-dimensionalized using the three-dimensional facial shape information of the original face (original face texture image BOT or predicted original face texture image AOT) by superimposing facial surface texture difference information (difference texture image TOD) before and after the change in the original face over time on the facial surface texture information of the original face (original face texture image BOT or predicted original face texture image AOT) and a second superimposed difference face image that has been three-dimensionalized using the three-dimensional facial shape information of the image manipulated face (manipulated face homology model BCF or predicted manipulated face homology model ACF) by superimposing facial surface texture difference information (difference texture image TCD) before and after the change in the image manipulated face over time on the facial surface texture information of the image manipulated face (manipulated face texture image BCT or predicted manipulated face texture image ACT) so that they can be compared.
According to this, difference information before and after the change over time is superimposed on the facial surface texture of the original face or the image-manipulated face, thereby improving the comprehension of the difference.

[第二変形例]
上述の第二実施形態では、工程(S51)において三次元差異画像DODと三次元差異画像DCDとが対比可能に出力されたが、そのような三次元差異画像に替えて、対象者の元顔の経時変化後の三次元顔画像AODと対象者の画像操作顔の経時変化後の三次元顔画像ACDとが対比可能に出力されてもよい(図6参照)。この場合、三次元顔画像AOD及びACDはそれぞれ多視点映像として表示装置15に表示されてもよい。
また、予測元顔テクスチャ画像AOTと予測操作顔テクスチャ画像ACTとが対比可能であり、かつ予測元顔相同モデルAOFと予測操作顔相同モデルACFとが対比可能となるようにそれぞれ表示装置15に表示させてもよい。
これによれば、工程(S47)及び工程(S48)を省くことができ、経時変化後の元顔及び画像操作顔に関する顔表面テクスチャどうし及び顔形状どうしをそれぞれ対比することができる。
[Second Modification]
In the second embodiment described above, the three-dimensional difference image DOD and the three-dimensional difference image DCD are outputted in step (S51) so as to be contrasted, but instead of such a three-dimensional difference image, a three-dimensional face image AOD of the subject's original face after time-dependent change and a three-dimensional face image ACD of the subject's image-manipulated face after time-dependent change may be outputted so as to be contrasted (see FIG. 6). In this case, the three-dimensional face images AOD and ACD may each be displayed on the display device 15 as a multi-viewpoint video.
In addition, the predicted source face texture image AOT and the predicted operated face texture image ACT may be displayed on the display device 15 so that they can be compared, and the predicted source face homology model AOF and the predicted operated face homology model ACF can be compared.
This makes it possible to omit steps (S47) and (S48), and to compare the facial surface textures and facial shapes of the original face and the image-manipulated face after changes over time, respectively.

更に言えば、経時変化前と経時変化後との各々について元顔と画像操作顔との間の顔表面テクスチャ情報の差異情報及び顔形状情報の差異情報が取得されるようにしてもよい。本実施形態では、予測元顔テクスチャ画像AOTと予測操作顔テクスチャ画像ACTとの差異情報が取得され、元顔テクスチャ画像BOTと操作顔テクスチャ画像BCTとの差異情報が取得され、それら差異情報が対比可能に出力されてもよい。 Moreover, difference information of the facial surface texture information and difference information of the facial shape information between the original face and the image-operated face before and after the change over time may be obtained. In this embodiment, difference information between the predicted original face texture image AOT and the predicted operated face texture image ACT is obtained, and difference information between the original face texture image BOT and the operated face texture image BCT is obtained, and the difference information may be output so as to be comparable.

[第三変形例]
また、図7に示されるように、顔表面テクスチャ差異情報に加えて又は替えて、経時変化前後の三次元顔形状情報の差異情報が取得されるようにしてもよい。図7は、第三変形例に係る顔経時変化予測方法の処理の流れの一部を示す図である。
第三変形例では、対象者の元顔の経時変化前後の顔形状の差異情報が生成され(S71)、対象者の画像操作顔の経時変化前後の顔形状の差異情報が生成される(S72)。本実施形態では、工程(S71)において元顔相同モデルBOFと予測元顔相同モデルAOFとの差異情報が生成され、工程(S72)において操作顔相同モデルBCFと予測操作顔相同モデルACFとの差異情報が生成される。
[Third Modification]
Also, as shown in Fig. 7, in addition to or instead of the facial surface texture difference information, difference information of three-dimensional facial shape information before and after the change over time may be acquired. Fig. 7 is a diagram showing a part of the process flow of the facial change prediction method according to the third modified example.
In the third modified example, difference information of the face shape before and after the change over time of the original face of the subject is generated (S71), and difference information of the face shape before and after the change over time of the image-manipulated face of the subject is generated (S72). In this embodiment, difference information between the original face homology model BOF and the predicted original face homology model AOF is generated in step (S71), and difference information between the manipulated face homology model BCF and the predicted manipulated face homology model ACF is generated in step (S72).

相同モデル間の差異は、例えば、法線距離を用いる方法、最短距離を用いる方法などを用いて算出することができる。法線距離を用いる手法では、一方の相同モデルのポリゴン頂点からの平均法線と他方の相同モデルの面(三角形)との交点を算出し、最短の交点までの距離が算出される。最短距離を用いる手法では、一方の相同モデルのポリゴン頂点から他方の相同モデルのポリゴン頂点の距離を算出し、最短距離の頂点が探索される。但し、相同モデル間の差異の取得手法はこのような例に限定されず、周知のあらゆる手法が利用可能である。 The difference between homologous models can be calculated using, for example, a method using normal distance or a method using shortest distance. In the method using normal distance, the intersection point between the average normal from the polygon vertices of one homologous model and the face (triangle) of the other homologous model is calculated, and the distance to the shortest intersection point is calculated. In the method using shortest distance, the distance from the polygon vertices of one homologous model to the polygon vertices of the other homologous model is calculated, and the vertex with the shortest distance is searched for. However, the method of obtaining the difference between homologous models is not limited to such examples, and any well-known method can be used.

このように生成された顔形状の差異情報は、画像情報とすることができるため、元顔又は画像操作顔の相同モデルと合成することで、三次元の顔画像として出力することができる。また、顔形状の差異情報を示す三次元の顔画像は、多視点映像として表示装置15に表示させることもできる。
本実施形態では、工程(S71)で生成された元顔相同モデルBOFと予測元顔相同モデルAOFとの差異情報が、元顔相同モデルBOF又は予測元顔相同モデルAOFと合成されて、三次元の顔形状差異画像DOKが生成される(S73)。また、工程(S72)で生成された操作顔相同モデルBCFと予測操作顔相同モデルACFとの差異情報が、操作顔相同モデルBCF又は予測操作顔相同モデルACFと合成されて、三次元の顔形状差異画像DCKが生成される(S74)。
そして、工程(S51)では、三次元差異画像DOD及びDCDに加えて又は替えて、三次元の顔形状差異画像DOKと三次元の顔形状差異画像DCKとが対比可能に出力されてもよい。この場合、顔形状差異画像DOK及びDCKはそれぞれ多視点映像として表示装置15に表示されてもよい。
これにより、顔表面テクスチャのみならず、顔形状の差異が経時変化後にどのような差異として現れるのかについても把握することができるようになる。
The facial shape difference information thus generated can be used as image information, and can be output as a three-dimensional facial image by combining it with a homologous model of the original face or the image-manipulated face. The three-dimensional facial image showing the facial shape difference information can also be displayed on the display device 15 as a multi-viewpoint video.
In this embodiment, the difference information between the original face homology model BOF and the predicted original face homology model AOF generated in the step (S71) is combined with the original face homology model BOF or the predicted original face homology model AOF to generate a three-dimensional face shape difference image DOK (S73). Also, the difference information between the operation face homology model BCF and the predicted operation face homology model ACF generated in the step (S72) is combined with the operation face homology model BCF or the predicted operation face homology model ACF to generate a three-dimensional face shape difference image DCK (S74).
In step (S51), in addition to or instead of the three-dimensional difference images DOD and DCD, a three-dimensional face shape difference image DOK and a three-dimensional face shape difference image DCK may be output so as to be comparable. In this case, the face shape difference images DOK and DCK may each be displayed on the display device 15 as a multi-viewpoint video.
This makes it possible to grasp not only the facial surface texture but also how differences in facial shape manifest themselves over time.

[その他の変形例]
第一実施形態の工程(S22)及び第二実施形態の工程(S42)、即ち二次元の顔画像データから、対象者の画像操作顔を示す二次元の操作顔画像データを取得する画像操作工程は、次のように変形することができる。
第一方法及び第二方法は、対象者の元顔において顔表面テクスチャを変化させる部位を特定する工程を更に含み、画像操作工程(S22)及び(S42)は、対象者の元顔からその特定された部位の顔表面テクスチャを変化させた画像操作顔を示す当該操作顔画像データを取得するようにしてもよい。
[Other Modifications]
The step (S22) of the first embodiment and the step (S42) of the second embodiment, i.e., the image manipulation step of acquiring two-dimensional manipulated face image data showing the image-manipulated face of the subject from two-dimensional face image data, can be modified as follows.
The first and second methods may further include a step of identifying areas of the subject's original face where the facial surface texture is to be changed, and the image manipulation steps (S22) and (S42) may be configured to acquire manipulated face image data showing an image manipulated face in which the facial surface texture of the identified areas has been changed from the subject's original face.

特定する部位は、顔の一部であれば制限されないが、例えば、目尻のシワ、ほうれい線、特定部位のシミ、鼻周りの毛穴、頬の赤みムラ等がある。
変化させる部位を特定する工程において、CPU11は、工程(S21)又は工程(S41)で取得された顔画像データに基づいて元顔を示す顔画像を表示装置15に表示し、ユーザ操作で選択された部位を顔表面テクスチャを変化させる部位として特定してもよい。また、CPU11は、化粧料、美容施術(医療行為を除く)、美容用若しくは健康用の飲食品等のリストを表示装置15に表示し、その中からユーザ操作で選択された施術又は製品で効果が出る部位を顔表面テクスチャを変化させる部位として特定してもよい。
The specified area is not limited as long as it is a part of the face, but examples include wrinkles at the corners of the eyes, nasolabial folds, age spots in specific areas, pores around the nose, and uneven redness on the cheeks.
In the step of specifying the area to be changed, the CPU 11 may display on the display device 15 a facial image showing the original face based on the facial image data acquired in step (S21) or step (S41), and specify the area selected by a user operation as the area to be changed in facial surface texture. The CPU 11 may also display on the display device 15 a list of cosmetics, beauty treatments (excluding medical procedures), beauty or health foods and beverages, etc., and specify the area to be affected by the treatment or product selected from the list by the user operation as the area to be changed in facial surface texture.

また、CPU11は、AIモデルを用いて取得された、対象者の元顔の経時変化後の顔表面テクスチャ情報を少なくとも用いて、顔表面テクスチャを変化させる部位を特定することもできる。この場合、第一方法では、工程(S21)の後、工程(S22)の前に、工程(S23)を実行し、第二方法では、工程(S41)の後、工程(S42)の前に、工程(S43)及び工程(S45)を実行する。これにより、工程(S22)及び工程(S42)の前に、対象者の元顔の経時変化後の顔表面テクスチャ情報(予測元顔画像AOP又は予測元顔テクスチャ画像AOT)が取得できる。 The CPU 11 can also identify areas where the facial surface texture is to be changed by using at least facial surface texture information of the subject's original face after time-dependent changes, obtained using an AI model. In this case, in the first method, step (S23) is executed after step (S21) and before step (S22), and in the second method, steps (S43) and (S45) are executed after step (S41) and before step (S42). This allows facial surface texture information of the subject's original face after time-dependent changes (predicted original facial image AOP or predicted original facial texture image AOT) to be acquired before steps (S22) and (S42).

当該特定方法は、対象者の元顔の経時変化後の顔表面テクスチャ情報を少なくとも用いていればよく、例えば、次のような特定方法が例示できる。
CPU11は、元顔の顔表面テクスチャ情報(予測元顔画像AOP又は予測元顔テクスチャ画像AOT)をそのまま表示装置15に表示して、その顔表面テクスチャ情報の中からユーザ操作で選択された部位を顔表面テクスチャを変化させる部位として特定してもよい。また、第二方法では、予測元顔テクスチャ画像AOTと予測元顔相同モデルAOFとを合成させた対象者の元顔の経時変化後の三次元顔画像AODを表示装置15に表示してもよい。
また、対象者の元顔の経時変化後の顔表面テクスチャ情報を用いて生成される、その元顔の経時変化前後の顔表面テクスチャ差異情報(差異画像OD又は差異テクスチャ画像TOD)、或いは差異テクスチャ画像TODを元顔相同モデルBOF又は予測元顔相同モデルAOFと合成した三次元差異画像DODを表示装置15に表示して、ユーザに変化させる部位を選択させてもよい。
更に言えば、CPU11が、その顔表面テクスチャ差異情報に基づいて、顔表面テクスチャを変化させる部位を自動で特定するようにしてもよい。例えば、顔表面テクスチャ差異情報を参照することで、CPU11は、差異の大きい部位、或いは所定の大きさの差異が広範囲に存在している部位を検出し、その検出された部位を顔表面テクスチャを変化させる部位として特定してもよい。
このように対象者の元顔の経時変化後の顔表面テクスチャ情報を用いて、顔表面テクスチャを変化させる部位を特定することで、経時変化に大きく影響を受ける部位に関してテクスチャを変化させた操作顔画像データを取得することができる。
The identification method may be one that uses at least facial surface texture information after the subject's original face has changed over time, and examples of the identification method include the following.
The CPU 11 may display the facial surface texture information of the original face (the predicted original face image AOP or the predicted original face texture image AOT) as it is on the display device 15, and specify a part selected by a user operation from the facial surface texture information as a part for changing the facial surface texture. In the second method, the display device 15 may display a three-dimensional face image AOD after the time-dependent change of the original face of the subject, which is obtained by combining the predicted original face texture image AOT and the predicted original face homology model AOF.
In addition, facial surface texture difference information (difference image OD or difference texture image TOD) before and after the change in the original face over time, which is generated using facial surface texture information of the original face of the subject after the change over time, or a three-dimensional difference image DOD obtained by combining the difference texture image TOD with the original face homology model BOF or the predicted original face homology model AOF, may be displayed on the display device 15 to allow the user to select the area to be changed.
Furthermore, the CPU 11 may automatically identify the area where the facial surface texture is to be changed based on the facial surface texture difference information. For example, by referring to the facial surface texture difference information, the CPU 11 may detect an area where the difference is large or an area where a difference of a predetermined size exists over a wide range, and identify the detected area as the area where the facial surface texture is to be changed.
In this way, by using facial surface texture information after the subject's original face has changed over time to identify the areas where the facial surface texture is to be changed, it is possible to obtain operated facial image data in which the texture of the areas that are significantly affected by changes over time has been changed.

画像操作工程(S22)及び(S42)では、このように特定された部位のテクスチャが変化するように、二次元の顔画像データに対して特定画像処理を適用すればよい。例えば、二次元の顔画像データで示される顔表面テクスチャの全領域の中から特定された部位に相当する局所領域を抜き出し、その局所領域に対して特定画像処理(フィルタリング等)を施すことで、特定された部位の顔表面テクスチャを変化させた操作顔画像データが取得可能である。但し、部分的に顔表面テクスチャを変化させる手法は何ら制限されない。
このように、本変形例によれば、顔の中の所望の部位に関して顔表面テクスチャの差異を作り出すことができ、この差異が経時変化後にどのようなテクスチャの差異として現れるのかを容易に把握することができるようになる。
In the image manipulation steps (S22) and (S42), specific image processing may be applied to the two-dimensional face image data so that the texture of the specified part is changed. For example, a local area corresponding to the specified part is extracted from the entire area of the face surface texture shown in the two-dimensional face image data, and specific image processing (filtering, etc.) is applied to the local area, whereby manipulated face image data in which the face surface texture of the specified part has been changed can be obtained. However, there is no limitation on the method of partially changing the face surface texture.
In this way, according to this variant, it is possible to create differences in facial surface texture for desired parts of the face, and it becomes easy to understand what kind of texture differences these differences will manifest as after changes over time.

上記の実施形態及び変形例の一部又は全部は、次のようにも特定され得る。但し、上述の実施形態及び変形例が以下の記載に制限されるものではない。 Some or all of the above-described embodiments and variations may also be specified as follows. However, the above-described embodiments and variations are not limited to the following descriptions.

<1>
時間経過前後の二次元の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって二次元の顔画像データから少なくとも経時変化後の顔表面テクスチャ情報を予測可能な学習済みモデルを利用することができる一以上のプロセッサが、
対象者の二次元の顔画像データを取得するデータ取得工程と、
前記取得された二次元の顔画像データを前記学習済みモデルに適用することで予測された前記対象者の元顔の経時変化後の顔表面テクスチャ情報を含む第一経時変化顔情報を取得する第一予測工程と、
前記取得された二次元の顔画像データに対して、該顔画像データに写る前記対象者の元顔から少なくとも一部の顔表面テクスチャを変化させる特定画像処理を適用することにより、前記対象者の画像操作顔を示す二次元の操作顔画像データを取得する画像操作工程と、
前記取得された二次元の操作顔画像データを前記学習済みモデルに適用することで予測された前記対象者の画像操作顔の経時変化後の顔表面テクスチャ情報を含む第二経時変化顔情報を取得する第二予測工程と、
前記第一経時変化顔情報及び前記第二経時変化顔情報を用いて、経時変化後の前記元顔及び前記画像操作顔に関する少なくとも顔表面テクスチャを対比可能な情報を出力部に出力する出力工程と、
を実行する顔経時変化予測方法。
<1>
one or more processors capable of utilizing a trained model obtained by machine learning using training data including a plurality of two-dimensional face image data sets before and after the passage of time, the trained model being capable of predicting at least face surface texture information after a change over time from the two-dimensional face image data;
a data acquisition step of acquiring two-dimensional facial image data of a subject;
A first prediction step of acquiring first time-varying face information including facial surface texture information after a time-varying change of the original face of the subject predicted by applying the acquired two-dimensional facial image data to the trained model;
an image manipulation step of acquiring two-dimensional manipulated face image data showing an image-manipulated face of the subject by applying a specific image processing to the acquired two-dimensional face image data, the specific image processing changing at least a part of a facial surface texture from the original face of the subject shown in the facial image data;
A second prediction step of acquiring second time-varying face information including face surface texture information after time-varying of the image-manipulated face of the subject predicted by applying the acquired two-dimensional manipulated face image data to the trained model; and
an output step of outputting, to an output unit, information that enables comparison of at least face surface textures regarding the original face and the image-operated face after the change over time, using the first time-change face information and the second time-change face information;
A method for predicting changes over time in a face.

<2>
前記対象者の前記元顔において顔表面テクスチャを変化させる部位を特定する特定工程、
を更に含み、
前記画像操作工程では、前記元顔から前記特定された部位の顔表面テクスチャを変化させた前記画像操作顔を示す前記操作顔画像データを取得する、
<1>に記載の顔経時変化予測方法。
<3>
前記特定工程では、前記第一予測工程で取得された前記第一経時変化顔情報に含まれる顔表面テクスチャ情報を少なくとも用いて、前記部位を特定する、
<2>に記載の顔経時変化予測方法。
<4>
前記対象者の前記元顔において顔表面テクスチャを変化させる変化態様を特定する工程、
を更に含み、
前記画像操作工程では、前記取得された二次元の顔画像データに対して、複数種の画像処理の中の前記特定された変化態様に対応する前記特定画像処理を適用する、
<1>から<3>のいずれか一つに記載の顔経時変化予測方法。
<5>
前記取得された二次元の顔画像データに対応する前記元顔の経時変化前の顔表面テクスチャ情報と前記元顔の経時変化後の顔表面テクスチャ情報との差異を示す前記元顔の経時変化前後の顔表面テクスチャ差異情報、及び前記取得された二次元の操作顔画像データに対応する前記画像操作顔の経時変化前の顔表面テクスチャ情報と前記画像操作顔の経時変化後の顔表面テクスチャ情報との差異を示す前記画像操作顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程、又は
前記取得された二次元の顔画像データに対応する前記元顔の経時変化前の顔表面テクスチャ情報と前記取得された二次元の操作顔画像データに対応する前記画像操作顔の経時変化前の顔表面テクスチャ情報との差異を示す経時変化前の顔表面テクスチャ差異情報、及び前記元顔の経時変化後の顔表面テクスチャ情報と前記画像操作顔の経時変化後の顔表面テクスチャ情報との差異を示す経時変化後の顔表面テクスチャ差異情報を取得する工程
を更に含み、
前記出力工程では、前記元顔の経時変化前後の顔表面テクスチャ差異情報と前記画像操作顔の経時変化前後の顔表面テクスチャ差異情報とを対比可能に前記出力部に出力する、又は前記経時変化前の顔表面テクスチャ差異情報と前記経時変化後の顔表面テクスチャ差異情報とを対比可能に前記出力部に出力する、
<1>から<4>のいずれか一つに記載の顔経時変化予測方法。
<6>
前記学習済みモデルは、前記二次元の顔画像データセットに対応する三次元の顔形状情報セットを更に含む前記教師データを用いた機械学習により得られたモデルであり、二次元の顔画像データから、経時変化後における三次元の顔形状情報及び該顔形状情報に適合する顔表面テクスチャ情報を予測可能であり、
前記第一予測工程で取得される前記第一経時変化顔情報は、前記元顔の経時変化後の三次元の顔形状情報を更に含み、
前記第二予測工程で取得される前記第二経時変化顔情報は、前記画像操作顔の経時変化後の三次元の顔形状情報を更に含み、
前記出力工程では、経時変化後の前記元顔及び前記画像操作顔に関する顔表面テクスチャ及び顔形状を対比可能な情報を前記出力部に出力する、
<1>から<5>のいずれか一つに記載の顔経時変化予測方法。
<7>
前記出力工程では、経時変化後の前記元顔の顔表面テクスチャ及び顔形状を示す多視点映像と、経時変化後の前記画像操作顔の顔表面テクスチャ及び顔形状を示す多視点映像とを対比可能に前記出力部に出力する、
<6>に記載の顔経時変化予測方法。
<8>
前記学習済みモデルは、二次元の顔画像データから、三次元の顔形状情報及び該顔形状情報に適合する顔表面テクスチャ情報を経時変化前と経時変化後とに関してそれぞれ予測可能であり、
前記取得された二次元の顔画像データを前記学習済みモデルに適用することで予測された前記対象者の元顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第一の三次元顔情報を取得する工程と、
前記取得された二次元の操作顔画像データを前記学習済みモデルに適用することで予測された前記対象者の画像操作顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第二の三次元顔情報を取得する工程と、
を更に含み、
前記出力工程では、前記第一の三次元顔情報及び前記第二の三次元顔情報を更に用いて、前記元顔の経時変化前後の顔表面テクスチャの差異と前記元顔の経時変化前又は経時変化後の顔形状とを示す多視点映像、及び前記画像操作顔の経時変化前後の顔表面テクスチャの差異と前記画像操作顔の経時変化前又は経時変化後の顔形状とを示す多視点映像を対比可能に前記出力部に出力する、
<6>又は<7>に記載の顔経時変化予測方法。
<9>
前記出力工程では、前記元顔の経時変化前後の顔形状の差異情報と前記画像操作顔の経時変化前後の顔形状の差異情報とを対比可能に前記出力部に出力する、
<8>に記載の顔経時変化予測方法。
<10>
前記学習済みモデルを利用可能な装置であって、<1>から<9>のいずれか一つに記載の顔経時変化予測方法を実行可能な顔経時変化予測装置。
<2>
A step of identifying a portion of the original face of the subject that changes the facial surface texture;
Further comprising:
In the image manipulation step, the manipulated face image data is obtained, which shows the image manipulated face obtained by changing the facial surface texture of the specified part from the original face.
The method for predicting a change in a face over time according to <1>.
<3>
In the identification step, the part is identified by using at least facial surface texture information included in the first time-varying face information acquired in the first prediction step.
The method for predicting a change in a face over time according to <2>.
<4>
identifying a change in the original face of the subject that changes the facial surface texture;
Further comprising:
In the image manipulation step, a specific image processing corresponding to the specified change mode among a plurality of types of image processing is applied to the acquired two-dimensional face image data.
The method for predicting a change in a face over time according to any one of <1> to <3>.
<5>
acquiring facial surface texture difference information before and after the time-dependent change of the original face, which corresponds to the acquired two-dimensional facial image data, indicating a difference between facial surface texture information before the time-dependent change of the original face and facial surface texture information after the time-dependent change of the original face, and facial surface texture difference information before and after the time-dependent change of the image manipulated face, which corresponds to the acquired two-dimensional manipulated facial image data, indicating a difference between facial surface texture information before the time-dependent change of the image manipulated face and facial surface texture information after the time-dependent change of the image manipulated face, or acquiring facial surface texture difference information before the time-dependent change, which corresponds to the acquired two-dimensional facial image data, indicating a difference between facial surface texture information before the time-dependent change of the original face, which corresponds to the acquired two-dimensional manipulated facial image data, and facial surface texture difference information after the time-dependent change, which indicates a difference between facial surface texture information after the time-dependent change of the original face and facial surface texture information after the time-dependent change of the image manipulated face,
In the output step, facial surface texture difference information before and after the change over time of the original face and facial surface texture difference information before and after the change over time of the image-operated face are output to the output unit so as to be contrasted, or facial surface texture difference information before the change over time and facial surface texture difference information after the change over time are output to the output unit so as to be contrasted.
The method for predicting a change over time in a face according to any one of <1> to <4>.
<6>
the trained model is a model obtained by machine learning using the training data further including a set of three-dimensional face shape information corresponding to the two-dimensional face image data set, and is capable of predicting, from the two-dimensional face image data, three-dimensional face shape information after a change over time and face surface texture information that matches the face shape information;
the first time-varying face information acquired in the first prediction step further includes three-dimensional face shape information after the original face has changed over time,
The second time-varying face information acquired in the second prediction step further includes three-dimensional face shape information after the image-operated face has changed over time,
In the output step, information enabling comparison of a facial surface texture and a facial shape of the original face and the image-manipulated face after the change over time is output to the output unit.
The method for predicting a change in a face over time according to any one of <1> to <5>.
<7>
In the output step, a multi-viewpoint image showing a facial surface texture and a facial shape of the original face after the time-dependent change and a multi-viewpoint image showing a facial surface texture and a facial shape of the image-manipulated face after the time-dependent change are output to the output unit so as to be contrasted.
The method for predicting a change in a face over time according to <6>.
<8>
the trained model is capable of predicting, from two-dimensional face image data, three-dimensional face shape information and face surface texture information that matches the face shape information, respectively, before and after a time-dependent change;
A step of acquiring first three-dimensional face information including face shape information and face surface texture information of the subject's original face before time-dependent changes predicted by applying the acquired two-dimensional face image data to the trained model;
A step of acquiring second three-dimensional face information including face shape information and face surface texture information before a time-dependent change of the image-manipulated face of the subject predicted by applying the acquired two-dimensional manipulated face image data to the trained model;
Further comprising:
In the output process, the first three-dimensional face information and the second three-dimensional face information are further used to output to the output unit a multi-viewpoint video showing a difference in facial surface texture before and after the time change of the original face and a facial shape of the original face before or after the time change, and a multi-viewpoint video showing a difference in facial surface texture before and after the time change of the image-manipulated face and a facial shape of the image-manipulated face before or after the time change in a manner that allows comparison.
The method for predicting a change in a face over time according to <6> or <7>.
<9>
In the output step, difference information on the face shape before and after the change over time of the original face and difference information on the face shape before and after the change over time of the image-manipulated face are output to the output unit so as to be comparable.
The method for predicting a change in a face over time according to <8>.
<10>
A facial change over time prediction device that can use the trained model and can execute the facial change over time prediction method described in any one of <1> to <9>.

なお、各図に示される処理フローでは、各工程に符号が付されているが、本実施形態で実行される工程の実行順序は、その符号の数字の順番に制限されない。本実施形態では、各工程の実行順を内容的に支障のない範囲で適宜決定することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。 In the process flows shown in the figures, each step is assigned a symbol, but the order in which the steps are executed in this embodiment is not limited to the order of the numbers in the symbols. In this embodiment, the order in which the steps are executed can be determined as appropriate to the extent that does not cause any problems in terms of content. In addition, the above-mentioned embodiments and modified examples can be combined to the extent that the content is not contradictory.

10 情報処理装置(顔経時変化予測装置)
11 CPU
12 メモリ
13 入出力I/F
14 通信ユニット
15 表示装置
16 入力装置
10 Information processing device (face change over time prediction device)
11 CPU
12 Memory 13 Input/Output I/F
14 Communication unit 15 Display device 16 Input device

Claims (10)

時間経過前後の二次元の顔画像データセットを複数含む教師データを用いた機械学習により得られた学習済みモデルであって二次元の顔画像データから少なくとも経時変化後の顔表面テクスチャ情報を予測可能な学習済みモデルを利用することができる一以上のプロセッサが、
対象者の二次元の顔画像データを取得するデータ取得工程と、
前記取得された二次元の顔画像データを前記学習済みモデルに適用することで予測された前記対象者の元顔の経時変化後の顔表面テクスチャ情報を含む第一経時変化顔情報を取得する第一予測工程と、
前記取得された二次元の顔画像データに対して、該顔画像データに写る前記対象者の元顔から少なくとも一部の顔表面テクスチャを変化させる特定画像処理を適用することにより、前記対象者の画像操作顔を示す二次元の操作顔画像データを取得する画像操作工程と、
前記取得された二次元の操作顔画像データを前記学習済みモデルに適用することで予測された前記対象者の画像操作顔の経時変化後の顔表面テクスチャ情報を含む第二経時変化顔情報を取得する第二予測工程と、
前記第一経時変化顔情報及び前記第二経時変化顔情報を用いて、経時変化後の前記元顔及び前記画像操作顔に関する少なくとも顔表面テクスチャを対比可能な情報を出力部に出力する出力工程と、
を実行する顔経時変化予測方法。
one or more processors capable of utilizing a trained model obtained by machine learning using training data including a plurality of two-dimensional face image data sets before and after the passage of time, the trained model being capable of predicting at least face surface texture information after a change over time from the two-dimensional face image data;
a data acquisition step of acquiring two-dimensional facial image data of a subject;
A first prediction step of acquiring first time-varying face information including facial surface texture information after a time-varying change of the original face of the subject predicted by applying the acquired two-dimensional facial image data to the trained model;
an image manipulation step of acquiring two-dimensional manipulated face image data showing an image-manipulated face of the subject by applying a specific image processing to the acquired two-dimensional face image data, the specific image processing changing at least a part of a facial surface texture from the original face of the subject shown in the facial image data;
A second prediction step of acquiring second time-varying face information including face surface texture information after time-varying of the image-manipulated face of the subject predicted by applying the acquired two-dimensional manipulated face image data to the trained model; and
an output step of outputting, to an output unit, information that enables comparison of at least face surface textures regarding the original face and the image-operated face after the change over time, using the first time-change face information and the second time-change face information;
A method for predicting changes over time in a face.
前記対象者の前記元顔において顔表面テクスチャを変化させる部位を特定する特定工程、
を更に含み、
前記画像操作工程では、前記元顔から前記特定された部位の顔表面テクスチャを変化させた前記画像操作顔を示す前記操作顔画像データを取得する、
請求項1に記載の顔経時変化予測方法。
A step of identifying a portion of the original face of the subject that changes the facial surface texture;
Further comprising:
In the image manipulation step, the manipulated face image data is obtained, which shows the image manipulated face obtained by changing the facial surface texture of the specified part from the original face.
The method for predicting facial changes over time according to claim 1 .
前記特定工程では、前記第一予測工程で取得された前記第一経時変化顔情報に含まれる顔表面テクスチャ情報を少なくとも用いて、前記部位を特定する、
請求項2に記載の顔経時変化予測方法。
In the identification step, the part is identified by using at least facial surface texture information included in the first time-varying face information acquired in the first prediction step.
The method for predicting facial changes over time according to claim 2 .
前記対象者の前記元顔において顔表面テクスチャを変化させる変化態様を特定する工程、
を更に含み、
前記画像操作工程では、前記取得された二次元の顔画像データに対して、複数種の画像処理の中の前記特定された変化態様に対応する前記特定画像処理を適用する、
請求項1から3のいずれか一項に記載の顔経時変化予測方法。
identifying a change in the original face of the subject that changes the facial surface texture;
Further comprising:
In the image manipulation step, a specific image processing corresponding to the specified change mode among a plurality of types of image processing is applied to the acquired two-dimensional face image data.
The method for predicting a change over time of a face according to claim 1 .
前記取得された二次元の顔画像データに対応する前記元顔の経時変化前の顔表面テクスチャ情報と前記元顔の経時変化後の顔表面テクスチャ情報との差異を示す前記元顔の経時変化前後の顔表面テクスチャ差異情報、及び前記取得された二次元の操作顔画像データに対応する前記画像操作顔の経時変化前の顔表面テクスチャ情報と前記画像操作顔の経時変化後の顔表面テクスチャ情報との差異を示す前記画像操作顔の経時変化前後の顔表面テクスチャ差異情報を取得する工程、又は
前記取得された二次元の顔画像データに対応する前記元顔の経時変化前の顔表面テクスチャ情報と前記取得された二次元の操作顔画像データに対応する前記画像操作顔の経時変化前の顔表面テクスチャ情報との差異を示す経時変化前の顔表面テクスチャ差異情報、及び前記元顔の経時変化後の顔表面テクスチャ情報と前記画像操作顔の経時変化後の顔表面テクスチャ情報との差異を示す経時変化後の顔表面テクスチャ差異情報を取得する工程
を更に含み、
前記出力工程では、前記元顔の経時変化前後の顔表面テクスチャ差異情報と前記画像操作顔の経時変化前後の顔表面テクスチャ差異情報とを対比可能に前記出力部に出力する、又は前記経時変化前の顔表面テクスチャ差異情報と前記経時変化後の顔表面テクスチャ差異情報とを対比可能に前記出力部に出力する、
請求項1から4のいずれか一項に記載の顔経時変化予測方法。
acquiring facial surface texture difference information before and after the time-dependent change of the original face, which corresponds to the acquired two-dimensional facial image data, indicating a difference between facial surface texture information before the time-dependent change of the original face and facial surface texture information after the time-dependent change of the original face, and acquiring facial surface texture difference information before and after the time-dependent change of the image manipulated face, which corresponds to the acquired two-dimensional manipulated facial image data, indicating a difference between facial surface texture information before the time-dependent change of the image manipulated face and facial surface texture information after the time-dependent change of the image manipulated face, or acquiring facial surface texture difference information before the time-dependent change, which corresponds to the acquired two-dimensional facial image data, indicating a difference between facial surface texture information before the time-dependent change of the original face, which corresponds to the acquired two-dimensional manipulated facial image data, and facial surface texture difference information after the time-dependent change, which indicates a difference between facial surface texture information after the time-dependent change of the original face and facial surface texture information after the time-dependent change of the image manipulated face,
In the output step, facial surface texture difference information before and after the change over time of the original face and facial surface texture difference information before and after the change over time of the image-operated face are output to the output unit so as to be contrasted, or facial surface texture difference information before the change over time and facial surface texture difference information after the change over time are output to the output unit so as to be contrasted.
The method for predicting a change over time of a face according to claim 1 .
前記学習済みモデルは、前記二次元の顔画像データセットに対応する三次元の顔形状情報セットを更に含む前記教師データを用いた機械学習により得られたモデルであり、二次元の顔画像データから、経時変化後における三次元の顔形状情報及び該顔形状情報に適合する顔表面テクスチャ情報を予測可能であり、
前記第一予測工程で取得される前記第一経時変化顔情報は、前記元顔の経時変化後の三次元の顔形状情報を更に含み、
前記第二予測工程で取得される前記第二経時変化顔情報は、前記画像操作顔の経時変化後の三次元の顔形状情報を更に含み、
前記出力工程では、経時変化後の前記元顔及び前記画像操作顔に関する顔表面テクスチャ及び顔形状を対比可能な情報を前記出力部に出力する、
請求項1から5のいずれか一項に記載の顔経時変化予測方法。
the trained model is a model obtained by machine learning using the training data further including a set of three-dimensional face shape information corresponding to the two-dimensional face image data set, and is capable of predicting, from the two-dimensional face image data, three-dimensional face shape information after a change over time and face surface texture information that matches the face shape information;
the first time-varying face information acquired in the first prediction step further includes three-dimensional face shape information after the time-varying face of the original face is obtained,
The second time-varying face information acquired in the second prediction step further includes three-dimensional face shape information after the image-operated face has changed over time,
In the output step, information enabling comparison of a facial surface texture and a facial shape of the original face and the image-manipulated face after the change over time is output to the output unit.
The method for predicting a facial change over time according to claim 1 .
前記出力工程では、経時変化後の前記元顔の顔表面テクスチャ及び顔形状を示す多視点映像と、経時変化後の前記画像操作顔の顔表面テクスチャ及び顔形状を示す多視点映像とを対比可能に前記出力部に出力する、
請求項6に記載の顔経時変化予測方法。
In the output step, a multi-viewpoint image showing a facial surface texture and a facial shape of the original face after the time-dependent change and a multi-viewpoint image showing a facial surface texture and a facial shape of the image-manipulated face after the time-dependent change are output to the output unit so as to be contrasted with each other.
The method for predicting facial changes over time according to claim 6.
前記学習済みモデルは、二次元の顔画像データから、三次元の顔形状情報及び該顔形状情報に適合する顔表面テクスチャ情報を経時変化前と経時変化後とに関してそれぞれ予測可能であり、
前記取得された二次元の顔画像データを前記学習済みモデルに適用することで予測された前記対象者の元顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第一の三次元顔情報を取得する工程と、
前記取得された二次元の操作顔画像データを前記学習済みモデルに適用することで予測された前記対象者の画像操作顔の経時変化前の顔形状情報及び顔表面テクスチャ情報を含む第二の三次元顔情報を取得する工程と、
を更に含み、
前記出力工程では、前記第一の三次元顔情報及び前記第二の三次元顔情報を更に用いて、前記元顔の経時変化前後の顔表面テクスチャの差異と前記元顔の経時変化前又は経時変化後の顔形状とを示す多視点映像、及び前記画像操作顔の経時変化前後の顔表面テクスチャの差異と前記画像操作顔の経時変化前又は経時変化後の顔形状とを示す多視点映像を対比可能に前記出力部に出力する、
請求項6又は7に記載の顔経時変化予測方法。
the trained model is capable of predicting, from two-dimensional face image data, three-dimensional face shape information and face surface texture information that matches the face shape information, respectively, before and after a time-dependent change;
A step of acquiring first three-dimensional face information including face shape information and face surface texture information of the subject's original face before time-dependent changes predicted by applying the acquired two-dimensional face image data to the trained model;
A step of acquiring second three-dimensional face information including face shape information and face surface texture information before a time-dependent change of the image-manipulated face of the subject predicted by applying the acquired two-dimensional manipulated face image data to the trained model;
Further comprising:
In the output process, the first three-dimensional face information and the second three-dimensional face information are further used to output to the output unit a multi-viewpoint video showing a difference in facial surface texture before and after the time change of the original face and a facial shape of the original face before or after the time change, and a multi-viewpoint video showing a difference in facial surface texture before and after the time change of the image-manipulated face and a facial shape of the image-manipulated face before or after the time change in a manner that allows comparison.
The method for predicting a facial change over time according to claim 6 or 7.
前記出力工程では、前記元顔の経時変化前後の顔形状の差異情報と前記画像操作顔の経時変化前後の顔形状の差異情報とを対比可能に前記出力部に出力する、
請求項8に記載の顔経時変化予測方法。
In the output step, difference information on the face shape before and after the change over time of the original face and difference information on the face shape before and after the change over time of the image-manipulated face are output to the output unit so as to be comparable.
The method for predicting facial changes over time according to claim 8.
前記学習済みモデルを利用可能な装置であって、請求項1から9のいずれか一項に記載の顔経時変化予測方法を実行可能な顔経時変化予測装置。 A facial change over time prediction device that can use the trained model and executes the facial change over time prediction method described in any one of claims 1 to 9.
JP2020127232A 2020-07-28 2020-07-28 Method for predicting facial changes over time Active JP7495292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020127232A JP7495292B2 (en) 2020-07-28 2020-07-28 Method for predicting facial changes over time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020127232A JP7495292B2 (en) 2020-07-28 2020-07-28 Method for predicting facial changes over time

Publications (2)

Publication Number Publication Date
JP2022024564A JP2022024564A (en) 2022-02-09
JP7495292B2 true JP7495292B2 (en) 2024-06-04

Family

ID=80265838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020127232A Active JP7495292B2 (en) 2020-07-28 2020-07-28 Method for predicting facial changes over time

Country Status (1)

Country Link
JP (1) JP7495292B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233671A (en) 2001-10-01 2003-08-22 L'oreal Sa Method and system for predicting and/or pursuing change of state on outer surface of body
WO2013005447A1 (en) 2011-07-07 2013-01-10 花王株式会社 Face impression analysis method, cosmetic counseling method, and face image generation method
JP2016194892A (en) 2015-04-01 2016-11-17 みずほ情報総研株式会社 Aging prediction system, aging prediction method, and aging prediction program
JP2017174454A (en) 2013-04-09 2017-09-28 イーエルシー マネージメント エルエルシー Skin diagnosis and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233671A (en) 2001-10-01 2003-08-22 L'oreal Sa Method and system for predicting and/or pursuing change of state on outer surface of body
WO2013005447A1 (en) 2011-07-07 2013-01-10 花王株式会社 Face impression analysis method, cosmetic counseling method, and face image generation method
JP2017174454A (en) 2013-04-09 2017-09-28 イーエルシー マネージメント エルエルシー Skin diagnosis and image processing method
JP2016194892A (en) 2015-04-01 2016-11-17 みずほ情報総研株式会社 Aging prediction system, aging prediction method, and aging prediction program

Also Published As

Publication number Publication date
JP2022024564A (en) 2022-02-09

Similar Documents

Publication Publication Date Title
US10019826B2 (en) Real-time high-quality facial performance capture
JP7413400B2 (en) Skin quality measurement method, skin quality classification method, skin quality measurement device, electronic equipment and storage medium
JP2020522810A (en) System and method for determining apparent skin age
CN106682632B (en) Method and device for processing face image
KR20200004841A (en) System and method for guiding a user to take a selfie
JP6872742B2 (en) Face image processing system, face image processing method and face image processing program
EP3185176A1 (en) Method and device for synthesizing an image of a face partially occluded
JP4682373B2 (en) Face image synthesis device, face image synthesis method, and face image synthesis program
EP2450852A1 (en) Method and device for virtual simulation of an image
KR20210139309A (en) Apparatus and method for visualizing cosmetic skin properties
WO2019142127A1 (en) Method and system of creating multiple expression emoticons
Jampour et al. Face inpainting based on high-level facial attributes
CN113392791A (en) Skin prediction processing method, device, equipment and storage medium
CN113486944A (en) Face fusion method, device, equipment and storage medium
Borges et al. A virtual makeup augmented reality system
CN109242760A (en) Processing method, device and the electronic equipment of facial image
Burt et al. The 4D space-time dimensions of facial perception
JP7495292B2 (en) Method for predicting facial changes over time
Purps et al. Reconstructing facial expressions of hmd users for avatars in vr
CN114782240A (en) Picture processing method and device
Ko et al. Image-processing based facial imperfection region detection and segmentation
JP2022024565A (en) Face change output method
CN106485206A (en) The teaching method being combined based on the video pictures made up and device
FR2920938A1 (en) Image simulating method for beauty industry, involves deforming parametric models to adapt to contours of features on face, and detecting and analyzing cutaneous structure of areas of face by maximizing gradient flow of brightness
JP7429683B2 (en) Method for determining temporal change characteristics of facial surface texture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240523

R150 Certificate of patent or registration of utility model

Ref document number: 7495292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150