JP7463774B2 - MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM - Google Patents

MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7463774B2
JP7463774B2 JP2020044055A JP2020044055A JP7463774B2 JP 7463774 B2 JP7463774 B2 JP 7463774B2 JP 2020044055 A JP2020044055 A JP 2020044055A JP 2020044055 A JP2020044055 A JP 2020044055A JP 7463774 B2 JP7463774 B2 JP 7463774B2
Authority
JP
Japan
Prior art keywords
makeup
color
face image
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020044055A
Other languages
Japanese (ja)
Other versions
JP2021144582A (en
Inventor
昌哉 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020044055A priority Critical patent/JP7463774B2/en
Publication of JP2021144582A publication Critical patent/JP2021144582A/en
Application granted granted Critical
Publication of JP7463774B2 publication Critical patent/JP7463774B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、メイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムに関するものである。 The present invention relates to a makeup simulation device, a makeup simulation method, and a program.

従来、カメラ等で撮影した顔の画像をディスプレイ等に表示させて、当該顔の画像に仮想的なメイク(化粧)画像処理を行うメイクアップシミュレーション方法が知られている(例えば、特許文献1)。 Conventionally, a makeup simulation method is known in which a face image captured by a camera or the like is displayed on a display or the like, and virtual makeup image processing is performed on the face image (for example, Patent Document 1).

特開2010-73222号公報JP 2010-73222 A

特許文献1におけるメイクアップシミュレーションは、当該メイクアップシミュレーションが有するアルゴリズムに基づいてメイクのシミュレーションが行われるが、ユーザのメイク技術を再現するシミュレーションはできなかった。 The makeup simulation in Patent Document 1 performs a makeup simulation based on an algorithm possessed by the makeup simulation, but it is not possible to perform a simulation that reproduces the user's makeup technique.

本発明は以上のような事情に鑑みてなされたものであり、ユーザのメイク技術で再現したメイクの仕上がりを確認することのできるメイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムを提供することを利点とするものである。 The present invention has been made in consideration of the above circumstances, and has the advantage of providing a makeup simulation device, a makeup simulation method, and a program that allow a user to check the finished look of makeup reproduced using their own makeup techniques.

前記課題を解決するために、本発明のメイクアップシミュレーション装置の一態様は、
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
前記ユーザに施された化粧とは独立して予め定められた複数の化粧品の色から化粧に用いたい化粧品の色を選択することをユーザから受け付ける化粧品色選択手段と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、
前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
前記第2の化粧顔画像を表示する表示手段と、
を備えることを特徴とするメイクアップシミュレーション装置。
In order to solve the above problems, one aspect of the makeup simulation device of the present invention comprises:
A makeup face image acquisition means for acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection means for detecting makeup information from the makeup face image;
a cosmetic color selection means for accepting, from a user, a selection of a cosmetic color to be used for makeup from a plurality of cosmetic colors that are predetermined independently of the makeup applied by the user ;
Based on the makeup information, a color of a makeup face image of the user to which the makeup has been applied is calculated.
a makeup-based facial image synthesis generating means for generating a second makeup-based facial image by changing the color of the makeup to the color selected by the makeup color selecting means;
a display means for displaying the second made-up face image;
A makeup simulation device comprising:

本発明によれば、ユーザのメイク技術で再現したメイクの仕上がりを確認することができるとの効果を奏する。 The present invention has the effect of allowing the user to check the finished look of makeup recreated using their own makeup techniques.

本実施形態におけるメイクアップシミュレーション装置の制御構成を示した要部ブロック図である。FIG. 2 is a block diagram showing a main part of a control configuration of the makeup simulation device according to the present embodiment. 本実施形態におけるメイクアップシミュレーション方法による全体的な処理を示すフローチャートである。4 is a flowchart showing the overall process of the makeup simulation method according to the present embodiment. 図2におけるメイク(化粧)情報の検出処理を示すフローチャートである。3 is a flowchart showing a makeup information detection process in FIG. 2 . 図2におけるメイクアップシミュレーション提示処理を示すフローチャートである。3 is a flowchart showing a makeup simulation presentation process in FIG. 2 . (a)は、メイク(化粧)顔画像の一例を示す図であり、(b)は、(a)における顔の主要部分を拡大して示した図であり、(c)は、(b)から抽出されるメイク(化粧)情報を模式的に示した図である。1A is a diagram showing an example of a made-up face image, FIG. 1B is a diagram showing an enlarged view of the main parts of the face in FIG. 1A, and FIG. 1C is a diagram showing a schematic diagram of makeup information extracted from FIG. (a)は、右目周辺の拡大図の一例であり、(b)は、(a)に示す領域に検出対象領域を設定し、目と眉毛の部分にマスクを施した場合を模式的に示した図である。FIG. 1A is an example of an enlarged view of the area around the right eye, and FIG. 1B is a schematic diagram showing the area to be detected set in the area shown in FIG. 1A and the area around the eyes and eyebrows is masked. メイク情報が書き込まれたメイクテクスチャの一例を示した図である。11 is a diagram showing an example of a makeup texture on which makeup information is written. FIG. 表示部に表示されるメイク色(化粧品の色)選択画面の一例を示す図である。FIG. 13 is a diagram showing an example of a makeup color (cosmetic color) selection screen displayed on a display unit. (a)は、メイク情報のうちの色情報を選択されたメイク色に変更した状態を模式的に示した図であり、(b)は、合成顔画像の一例を示す図であり、(c)は、(b)における顔の主要部分を拡大して示した図である。(a) is a schematic diagram showing the state in which color information in the makeup information has been changed to a selected makeup color, (b) is a diagram showing an example of a composite face image, and (c) is a diagram showing an enlarged view of the main part of the face in (b).

図1から図9(a)~図9(c)を参照しつつ、本発明に係るメイクアップシミュレーション装置、メイクアップシミュレーション方法及びプログラムの一実施形態について説明する。
なおここで、以下に示す実施の形態において「メイク」とは、「化粧」(メイクアップ)の仕方(種類)を示し、塗付濃度及び、塗付範囲を少なくとも含むものとする。
また、メイク色とは化粧品(肌用化粧剤)の色を示し、例えば、アイシャドウや口紅(以下において「リップ」ともいう。)等の色味を少なくとも含むものとする。
なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
An embodiment of a makeup simulation apparatus, a makeup simulation method, and a program according to the present invention will be described with reference to FIGS. 1 to 9(a) to 9(c).
In the following embodiments, the term "make-up" refers to the method (type) of "make-up" and includes at least the application concentration and application range.
Further, makeup color refers to the color of cosmetics (skin cosmetics), and includes at least the colors of eye shadow and lipstick (hereinafter also referred to as "lip").
In addition, the embodiments described below are subject to various limitations that are technically preferable for implementing the present invention, but the scope of the present invention is not limited to the following embodiments and illustrated examples.

図1は、本実施形態におけるメイクアップシミュレーション装置の要部ブロック図である。
図1に示すように、メイクアップシミュレーション装置1は、操作部10と、表示部20と、撮影部30と、制御装置50と、を備えている。
本実施形態のメイクアップシミュレーション装置1は、例えば化粧品売り場の店頭等に配置され、ユーザや接客を行う店員等が用いるものである。
メイクアップシミュレーション装置1は、例えばタブレット型のパーソナルコンピュータ(以下において「PC」とする。)やノート型のPC、据置型のPC等で構成されている。なお、メイクアップシミュレーション装置1の構成は特に限定されず、専用の筐体を備える装置であってもよい。
FIG. 1 is a block diagram of a main portion of a makeup simulation apparatus according to the present embodiment.
As shown in FIG. 1, the makeup simulation device 1 includes an operation unit 10, a display unit 20, an image capturing unit 30, and a control device 50.
The makeup simulation device 1 of this embodiment is placed, for example, at a cosmetics counter or the like, and is used by users and sales clerks who serve customers.
The makeup simulation device 1 is configured, for example, by a tablet personal computer (hereinafter referred to as "PC"), a notebook PC, a desktop PC, etc. The configuration of the makeup simulation device 1 is not particularly limited, and may be a device equipped with a dedicated housing.

操作部10は、ユーザの操作に応じて各種の操作入力・設定等の操作を行うものである。操作部10が操作されると、当該操作に対応する入力信号が制御部51に送信される。
操作部10は、例えば表示部20の表面に一体的に設けられたタッチパネルである。
表示部20に構成されるタッチパネルには、後述する表示制御部516の制御にしたがって各種の操作画面が表示され、ユーザはタッチパネルへのタッチ操作によって各種の入力・設定等の操作を行うことができる(図6参照)。
なお、各種の入力・設定等の操作を行う操作部10はタッチパネルである場合に限定されない。例えば各種の操作ボタンやキーボード、ポインティングデバイス等が操作部10として設けられていてもよい。
The operation unit 10 performs various operations such as inputting operations and setting in response to user operations. When the operation unit 10 is operated, an input signal corresponding to the operation is transmitted to the control unit 51.
The operation unit 10 is, for example, a touch panel that is integrally provided on the surface of the display unit 20 .
Various operation screens are displayed on the touch panel configured in the display unit 20 under the control of a display control unit 516 described later, and the user can perform various input, setting, and other operations by touching the touch panel (see Figure 6).
The operation unit 10 for performing various input and setting operations is not limited to a touch panel. For example, various operation buttons, a keyboard, a pointing device, etc. may be provided as the operation unit 10.

表示部20は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機エレクトロルミネッセンスディスプレイその他のフラットディスプレイ等で構成されている。
なお、前述のように、表示部20の表面に各種の入力を行うためのタッチパネルが一体的に構成されていてもよい。この場合には、タッチパネルが操作部10として機能する。
本実施形態では、表示部20の表示画面には、各種の案内画面等が表示される他、後述するように、例えば、ユーザがメイクを施したいメイク領域を選択・設定して当該メイク領域に配置する色(メイク色)を選択・設定するためのメイク色選択画面21が表示される。
The display unit 20 is configured with, for example, a liquid crystal display (LCD), an organic electroluminescence display, or another flat display.
As described above, a touch panel for performing various inputs may be integrally configured on the surface of the display unit 20. In this case, the touch panel functions as the operation unit 10.
In this embodiment, the display screen of the display unit 20 displays various kinds of guide screens and the like, and also displays, as described below, a makeup color selection screen 21 for enabling the user to select and set the makeup area on which the user wishes to apply makeup and to select and set the color (makeup color) to be placed in that makeup area.

また、ユーザがメイクをした状態の顔を撮影したメイク(化粧)顔画像、ユーザがメイクをしていない状態の顔を撮影した素肌顔画像等をメイクアップシミュレーション装置1が取得した場合に、これらの画像を表示部20の表示画面に適宜表示させてもよい。
さらに、表示部20には、ユーザのメイク顔画像(化粧顔画像)から生成された顔モデルや、顔モデルのメイク領域に所望のメイク色のメイクが配置された合成顔画像(第2の化粧顔画像、図9(b)参照)等が適宜表示されるようになっている。
なお、合成顔画像を表示部20に表示させる場合には、各メイク領域についてユーザが選択したメイク色の識別番号(例えば、アイシャドウであればブルー系の何番の色、リップであればピンク系の何番の色等)や当該メイク色に対応する商品番号(例えば〇番のアイシャドウ、〇番のリップ)等を合わせて表示させてもよい。これにより、自分に似合う色の番号を確認したり、合成顔画像と同じメイクをするために必要な商品をユーザが知ることができる。
表示部20は、後述する表示制御部516によって、その表示動作が制御される。
In addition, when the makeup simulation device 1 acquires a makeup face image captured by photographing the user's face with makeup on, a bare skin face image captured by photographing the user's face without makeup, etc., these images may be appropriately displayed on the display screen of the display unit 20.
Furthermore, the display unit 20 is configured to appropriately display a face model generated from the user's made-up face image (made-up face image), a composite face image in which makeup of a desired makeup color is placed in the makeup area of the face model (a second made-up face image, see Figure 9 (b)), and the like.
When the composite face image is displayed on the display unit 20, the identification number of the makeup color selected by the user for each makeup area (e.g., a blue color number for eye shadow, a pink color number for lipstick, etc.) and a product number corresponding to the makeup color (e.g., eye shadow number XX, lipstick number XX), etc. may also be displayed together. This allows the user to check the color number that suits them best, and to know the products necessary to create the same makeup as the composite face image.
The display operation of the display unit 20 is controlled by a display control unit 516, which will be described later.

また、撮影部30は、例えばカメラ等である撮影装置31と、撮影対象であるユーザの顔を照明する白色LED等で構成された照明装置32とを備えている。撮影装置31は、静止画像を撮影するものに限定されず、動画像を撮影するものであってもよい。この場合動画で撮影された中から、任意のフレーム画像を切り出せるようにしてもよい。
なお、本実施形態では後述するように、メイクをした状態のユーザの顔を撮影部30において撮影し、メイク顔画像(化粧顔画像)を取得する。
この撮影部30で取得される肌色情報は、例えば、RGBやHSV(色相/彩度/明度)である。
また、本実施形態では、メイクをしていないユーザの顔を撮影部30において撮影し、素肌顔画像を取得してもよい。そして、素肌顔画像を取得した場合には、素肌顔画像から、メイクをしていない部分のユーザの肌の色である肌色情報が取得される。なお、後述するように、肌色情報は素肌顔画像から取得される場合に限定されず、本実施形態において素肌顔画像を取得することは必須ではない。
The photographing section 30 includes a photographing device 31, such as a camera, and a lighting device 32, such as a white LED, for illuminating the face of the user, who is the subject of the photograph. The photographing device 31 is not limited to a device that photographs still images, and may be a device that photographs moving images. In this case, it may be possible to cut out any frame image from the photographed moving image.
In this embodiment, as described later, the face of the user with makeup applied is photographed by the photographing unit 30 to obtain a made-up face image.
The skin color information acquired by the image capturing unit 30 is, for example, RGB or HSV (hue/saturation/brightness).
In this embodiment, the face of the user not wearing makeup may be photographed by the photographing unit 30 to obtain a bare skin image. When the bare skin image is obtained, skin color information, which is the color of the user's skin in the areas not wearing makeup, is obtained from the bare skin image. As will be described later, the skin color information is not limited to being obtained from the bare skin image, and it is not essential to obtain a bare skin image in this embodiment.

本実施形態では、後述するように、メイク顔画像から、メイクの位置を示すメイク領域の情報やメイクの色(化粧品の色)情報等を含むメイク情報を検出するようになっている。このため、撮影装置31は、撮影した画像から色を識別することが可能な程度の性能(解像度等)を有することが好ましい。
この撮影部30は、後述する制御装置50の撮影制御部511によって制御される。
撮影装置31によって撮影された画像(メイク顔画像、素肌顔画像等)は、撮影制御部511において取得される。
なお、撮影部30によって撮影された画像の画像データは、後述する記憶部52に記憶されてもよい。
In this embodiment, as described later, makeup information including makeup area information indicating the position of makeup and makeup color (cosmetic color) information is detected from the made-up face image. For this reason, it is preferable that the photographing device 31 has a performance (resolution, etc.) sufficient to identify colors from the photographed image.
The photographing unit 30 is controlled by a photographing control unit 511 of the control device 50, which will be described later.
The images (made-up face image, bare-skin face image, etc.) captured by the photographing device 31 are acquired by the photographing control unit 511.
The image data of the image captured by the imaging unit 30 may be stored in a storage unit 52, which will be described later.

制御装置50は、図示しないCPU(Central Processing Unit)等のプロセッサで構成される制御部51と、ROM(Read Only Memory)及びRAM(Random Access Memory)等(いずれも図示せず)で構成される記憶部52とを備えるコンピュータである。なお、記憶部52は別構成とし、制御装置50の外部に設けるようにしてもよい。 The control device 50 is a computer that includes a control unit 51 that is configured with a processor such as a CPU (Central Processing Unit) (not shown), and a memory unit 52 that is configured with a ROM (Read Only Memory) and a RAM (Random Access Memory) (neither of which are shown). The memory unit 52 may be configured separately and provided outside the control device 50.

記憶部52には、プログラム記憶領域521及びデータ保存領域522等が設けられている。
プログラム記憶領域521には、例えばメイクアップシミュレーション処理を行うためのプログラム等、メイクアップシミュレーション装置1を動作させるための各種プログラム等が格納されている。ここに言うプログラムは、例えば各種画像処理用のソフトウエアプログラム等を含む。制御部51がこれらのプログラムを例えばRAMの作業領域に展開して、プログラムが制御部51において実行されることによって、メイクアップシミュレーション装置1の各部が統括制御されるようになっている。
The storage unit 52 includes a program storage area 521 and a data storage area 522 .
The program storage area 521 stores various programs for operating the makeup simulation device 1, such as a program for performing makeup simulation processing. The programs referred to here include, for example, software programs for various image processing. The control unit 51 loads these programs, for example, in a working area of a RAM, and the programs are executed by the control unit 51, thereby providing overall control of each part of the makeup simulation device 1.

また、データ保存領域522には、撮影部30によって取得された各種画像(メイク顔画像、素肌顔画像等)のデータやメイク顔画像、素肌顔画像等から検出された顔パーツ情報、メイク情報、肌色情報等各種の情報、メイク顔画像から生成された顔モデル、登録されているユーザの各種情報等が、それぞれユーザごとに対応付けられて記憶されている。なお、記憶部52には、その他の各種情報が記憶されてもよい。 The data storage area 522 also stores data on various images (made-up face images, bare-skin face images, etc.) acquired by the photographing unit 30, various information such as face part information, makeup information, skin color information, etc. detected from the made-up face images and bare-skin face images, face models generated from the made-up face images, various information on registered users, etc., each associated with each user. Note that the memory unit 52 may also store various other information.

制御部51は、機能的に見た場合、撮影制御部511、画像処理部512、表示制御部516等を備えている。これら撮影制御部511、画像処理部512、表示制御部516等としての機能は、制御部51と記憶部52のプログラム記憶領域521に記憶されたプログラムとの協働によって実現される。 From a functional perspective, the control unit 51 includes an imaging control unit 511, an image processing unit 512, a display control unit 516, etc. The functions of the imaging control unit 511, the image processing unit 512, the display control unit 516, etc. are realized by cooperation between the control unit 51 and a program stored in the program memory area 521 of the memory unit 52.

撮影制御部511は、撮影部30の撮影装置31及び照明装置32を制御して撮影装置31により、メイクをした状態のユーザの顔の画像であるメイク顔画像やメイクをしていない情報のユーザの顔の画像である素肌顔画像等の画像を撮影させる。
本実施形態では、撮影部30により取得された当該メイク顔画像や素肌顔画像は、撮影制御部511に送られる。撮影制御部511は、こうしたメイク顔画像を取得するメイク顔画像取得手段、素肌顔画像を取得する素肌顔画像取得手段として機能する。なお、撮影制御部511はメイク顔画像や素肌顔画像を記憶部52に記憶させてもよい。
The photographing control unit 511 controls the photographing device 31 and the lighting device 32 of the photographing unit 30 to cause the photographing device 31 to photograph images such as a made-up face image which is an image of the user's face with makeup on, and a bare skin face image which is an image of the user's face without makeup.
In this embodiment, the made-up face image and the bare skin face image acquired by the photographing unit 30 are sent to the photographing control unit 511. The photographing control unit 511 functions as a made-up face image acquiring means for acquiring such made-up face images and a bare skin face image acquiring means for acquiring bare skin face images. The photographing control unit 511 may store the made-up face image and the bare skin face image in the storage unit 52.

なお、メイク顔画像は、通常の化粧品を用いたユーザの普段のメイク状態の顔を撮影したものであってもよいし、特定の色の専用の化粧品を使用してメイクを施した顔を撮影したものであってもよい。特定の色の化粧品とは、例えばリップなら赤色、アイシャドウなら青色等、各メイク種類に応じて明らかに区別しやすい色の化粧品であり、メイクアップシミュレーション装置1を設置している店舗等で用意されるものである。このようにメイク種類を識別しやすい特定の色の専用の化粧品を用いてメイクした顔を撮影することにより、メイク顔画像からのメイク情報の検出精度を向上させることが可能となる。 The made-up face image may be an image of the user's face in a normal state of makeup using normal cosmetics, or an image of a face made up using specialized cosmetics of a specific color. Cosmetics of a specific color are cosmetics that are clearly distinguishable according to the type of makeup, such as red for lipstick and blue for eye shadow, and are prepared in stores where the makeup simulation device 1 is installed. In this way, by photographing a face made up using specialized cosmetics of a specific color that makes it easy to distinguish the type of makeup, it is possible to improve the accuracy of detecting makeup information from the made-up face image.

なお、メイク顔画像取得手段や素肌顔画像取得手段としての制御部51は、撮影制御部511に限定されない。
例えば、撮影部30の撮影装置31によってユーザを撮影する代わりに、ユーザのメイク顔画像や素肌顔画像のデータをUSB等の図示しないインターフェース経由で読み込んだり、ユーザの携帯端末装置(スマートフォン等)に保存されている画像データの中からユーザのメイク顔画像や素肌顔画像のデータを各種通信手段を介してメイクアップシミュレーション装置1に送信する等の手法により、制御部51が取得してもよい。さらに、メイクアップシミュレーション装置1に各種イメージスキャナ等の画像読取装置を接続させることができる場合には、ユーザによって提供されたユーザのメイク顔画像や素肌顔画像(例えばメイク顔や素肌顔を撮影した写真)を画像読取装置を介してメイクアップシミュレーション装置1の制御装置50に読み込んでもよい。
The control unit 51 as the made-up face image acquiring unit or the bare-skin face image acquiring unit is not limited to the photography control unit 511 .
For example, instead of photographing the user with the photographing device 31 of the photographing section 30, the control unit 51 may acquire the user's made-up face image and bare-skin face image data by reading the made-up face image and bare-skin face image data of the user via an interface (not shown) such as a USB, or by transmitting the made-up face image and bare-skin face image data of the user from image data stored in the user's mobile terminal device (such as a smartphone) via various communication means to the makeup simulation device 1. Furthermore, in cases where an image reading device such as various image scanners can be connected to the makeup simulation device 1, the made-up face image and bare-skin face image of the user provided by the user (for example, a photograph of a made-up face or bare-skin face) may be read into the control device 50 of the makeup simulation device 1 via the image reading device.

このように構成することで、ユーザが店頭の装置でメイクした状態の顔やメイクしていない素肌状態の顔を撮影する手間等を省くことが可能となる。特にメイク状態で来店したユーザに一旦素肌状態になってもらってから撮影を行うことは煩雑であり、事前のデータや写真等で代用できる場合には、これを用いることが好ましい。
なお、ユーザの素肌顔画像は、後述するようにユーザの肌色情報を得るために必要なものである。このため、他の手法で肌色情報を得ることができる場合には、撮影部30等によりユーザの素肌顔画像を取得することは必須ではない。すなわち、例えばメイクアップシミュレーション装置1に各種測色計等を接続させることができる場合には、顔のうちメイクをしていない箇所や、顔の肌色に比較的近似している首筋等の肌の色を測色計等で検出し、この検出結果を制御部51が取得することでユーザの肌色情報を取得してもよい。
This configuration can save the user the trouble of taking pictures of their face with makeup on and their face without makeup using a device in a store. It is particularly troublesome to have a user who comes to a store with makeup on take pictures of their bare skin before taking them, and it is preferable to use this method when it is possible to use data or photographs in advance instead.
The bare skin face image of the user is necessary to obtain the skin color information of the user as described later. Therefore, if the skin color information can be obtained by other methods, it is not necessary to obtain the bare skin face image of the user by the photographing unit 30 or the like. That is, for example, if various colorimeters or the like can be connected to the makeup simulation device 1, the color of the skin of the face that is not made up or the neck, which is relatively close to the skin color of the face, may be detected by the colorimeter or the like, and the control unit 51 may obtain the detection result to obtain the skin color information of the user.

画像処理部512は、撮影制御部511によって取得された各種画像や、各種の手法で制御部51が取得した各種画像に、様々な画像処理を行うものである。本実施形態において、画像処理部512は、顔モデル生成部513、顔パーツ検出部514、メイク情報検出部515等を含んでいる。
なお、メイクアップシミュレーション装置1は、画像処理部512として、GPU(Graphics Processing Unit)等、画像処理に特化した専用のプロセッサにより構成された処理装置を備えていてもよい。
The image processing unit 512 performs various image processing on various images acquired by the shooting control unit 511 and various images acquired by the control unit 51 using various methods. In this embodiment, the image processing unit 512 includes a face model generation unit 513, a face part detection unit 514, a makeup information detection unit 515, etc.
The makeup simulation device 1 may include, as the image processing unit 512, a processing device configured with a dedicated processor specialized for image processing, such as a GPU (Graphics Processing Unit).

顔モデル生成部513は、メイク顔画像に基づいて、メイクのベースとなる顔モデルを生成する顔モデル生成手段である。
すなわち、顔モデルは、メイクアップシミュレーション処理によって仮想的にメイクを施す際にベースとなるユーザの顔の形状の情報である。
顔モデルは、二次元的な画像であってもよいし、三次元的な画像であってもよい。
本実施形態では、顔モデル生成部513が、顔モデルとして三次元的な(立体的な)画像を生成する場合を例として説明する。
顔モデルを立体的なものとすることにより、後にメイクを合成した際に、よりリアリティのある表示を行うことができ、所望の色でメイクした場合の完成状態を、ユーザがイメージしやすくなるため好ましい。
The face model generating unit 513 is a face model generating means that generates a face model that serves as a base for makeup, based on the made-up face image.
That is, the face model is information on the shape of the user's face that serves as a base when virtually applying makeup through makeup simulation processing.
The face model may be a two-dimensional image or a three-dimensional image.
In this embodiment, an example will be described in which the face model generating unit 513 generates a three-dimensional (stereoscopic) image as a face model.
Making the face model three-dimensional is preferable because it allows for a more realistic display when makeup is later synthesized, and makes it easier for the user to imagine what the finished look will be like when makeup is applied in the desired colors.

三次元的な顔モデルを生成するには、例えば以下の手法による。
すなわち、顔モデル生成部513は、例えば、機械学習等の手法により、ユーザのメイク顔画像から、顔の輪郭の特徴点及び顔の各特徴的な部位(例えば、目、口、鼻等)を検出し、ユーザの顔の3Dモデル(顔モデル)を生成する。
このような3Dモデル(顔モデル)からは、これに対応した顔画像のテクスチャ(後述するメイクテクスチャ)を生成することが可能である。テクスチャの座標は3Dモデル(顔モデル)のポリゴンの各頂点と対応する。このため、例えばテクスチャにおいて、後述するメイク領域に配置されている色を所望のメイク色に変更(編集)すると、テクスチャにおいて行ったこうしたメイク色の変更等を3Dモデル(顔モデル)に反映させ、変更された状態で表示部20等に出力させることが可能となる。
顔モデル生成部513によって生成された顔モデルは、記憶部52のデータ保存領域522に保存される。
A three-dimensional face model can be generated, for example, by the following method.
That is, the face model generation unit 513 detects the characteristic points of the facial contour and each characteristic part of the face (e.g., the eyes, mouth, nose, etc.) from the user's made-up face image, for example, by using a technique such as machine learning, and generates a 3D model of the user's face (face model).
From such a 3D model (face model), it is possible to generate a texture of a corresponding face image (makeup texture, described later). The coordinates of the texture correspond to each vertex of a polygon of the 3D model (face model). For this reason, for example, if the color arranged in a makeup area, described later, in the texture is changed (edited) to a desired makeup color, the change in makeup color, etc., made in the texture can be reflected in the 3D model (face model), and the changed state can be output to the display unit 20, etc.
The face model generated by the face model generating unit 513 is stored in the data storage area 522 of the storage unit 52 .

顔パーツ検出部514は、メイク顔画像から顔のパーツ(部品、部位)に関する顔パーツ情報を検出する顔パーツ検出手段である。
顔パーツ検出部514によって検出される主要な顔のパーツとしては、例えば目、鼻、口、眉等があげられる。顔パーツ検出部514は、こうしたものをすべて検出してもよいし、これらのうちの一部のみ検出するのでもよいし、これ以外のパーツを検出してもよい。
顔パーツ検出部514による具体的な検出手法は特に限定されず、一般的に用いられる画像処理技術によることができる。
例えば、顔パーツ検出部514は、元画像であるメイク顔画像に対して所定の微分フィルタ(例えば、ハイパスフィルタ等)を用いて微分演算を行い、輝度値や色や濃度に急峻な変化があるところをエッジとして検出するエッジ検出処理を行う。そして、顔パーツ検出部514は、この検出結果に基づいて、目、鼻、口、眉等、顔の各パーツを特定する。
なお、顔の各パーツの検出、どのエッジが顔のどのパーツに対応するか等の特定には、顔モデル生成部513による機械学習等の手法を用いた特徴点の検出等の手法を用いてもよい。
The face part detection unit 514 is a face part detection means that detects face part information related to face parts (parts, regions) from the made-up face image.
Major facial features detected by the facial feature detection unit 514 include, for example, eyes, nose, mouth, eyebrows, etc. The facial feature detection unit 514 may detect all of these features, may detect only some of these features, or may detect other features.
The specific detection method used by the face part detection unit 514 is not particularly limited, and may be based on a commonly used image processing technique.
For example, the facial part detection unit 514 performs edge detection processing by performing differential calculations on the original image, that is, the made-up face image, using a predetermined differential filter (e.g., a high-pass filter, etc.) to detect sharp changes in brightness value, color, or density as edges. Then, based on the detection results, the facial part detection unit 514 identifies each part of the face, such as the eyes, nose, mouth, eyebrows, etc.
In addition, to detect each part of the face and identify which edge corresponds to which part of the face, the face model generation unit 513 may use a method such as detecting feature points using a machine learning method or the like.

メイク情報検出部515は、メイク顔画像から顔の各パーツごとのメイク情報を検出するメイク情報検出手段である。
メイク情報検出部515により検出されるメイク情報は、少なくともメイクの位置を示すメイク領域の情報及び塗布色の濃淡情報を含んでいる。濃淡情報は、例えばグラデーション、むら、ぼかし等の塗布色の塗り方に関するものであり、メイクの技法・技量に関わる情報である。またメイク情報はメイクの色情報を含んでいてもよい。
The makeup information detection unit 515 is a makeup information detection means that detects makeup information for each part of the face from the made-up face image.
The makeup information detected by the makeup information detection unit 515 includes at least information on the makeup area indicating the position of the makeup and shading information on the applied color. The shading information is information on the application method of the applied color, such as gradation, unevenness, blurring, etc., and is information on the technique and skill of the makeup. The makeup information may also include color information of the makeup.

本実施形態の制御部51は、ユーザの素肌顔画像等に基づいてユーザのメイクを施していない肌の肌色情報を取得する肌色情報取得手段として機能するようになっており、メイク情報検出部515は、メイク顔画像とユーザの肌色情報とを比較して、素肌の状態から色が変化している部分にメイクが施されていると判断して、メイク情報を抽出する。
なお、メイク情報検出部515によるメイク情報の検出手法の詳細については後述する。
The control unit 51 of this embodiment functions as a skin color information acquisition means for acquiring skin color information of the user's skin without makeup based on the user's bare face image, etc., and the makeup information detection unit 515 compares the made-up face image with the user's skin color information, determines that makeup has been applied to areas where the color has changed from the bare skin state, and extracts makeup information.
The method of detecting makeup information by makeup information detection unit 515 will be described in detail later.

メイク情報検出部515は、検出したメイク情報を、顔モデル(顔の3Dモデル)に対応した座標を持つテクスチャ(メイクテクスチャ)に書き込むことで、顔のどのパーツについて、どのような位置・範囲で、どのような濃度・濃淡のメイクがなされているかを記録する。
なお、メイクテクスチャとしては、カラーマップ(ディフューズマップ)が想定される。なお、本実施形態では、メイクテクスチャとして、メイク情報検出部515による検出結果を顔モデル(顔の3Dモデル)に適用するための出力用のメイクテクスチャと、検出したメイク情報を保存するためのデータ保存用のメイクテクスチャとが用意される。
メイク情報は各顔パーツと対応付けられてデータ保存用のメイクテクスチャに書き込まれ、記憶部52のデータ保存領域522等に保存される。これにより、ユーザが次回以降メイクアップシミュレーション装置1を使用する際には、データ保存用のメイクテクスチャに書き込まれているメイク情報を用いることができ、メイクアップシミュレーション処理をより迅速かつ簡易に利用することができる。
The makeup information detection unit 515 writes the detected makeup information into a texture (makeup texture) having coordinates corresponding to the face model (3D model of the face), thereby recording which parts of the face are applied to what position/area, and what density/shade of makeup is applied.
It should be noted that a color map (diffuse map) is assumed as the makeup texture. In this embodiment, the makeup textures prepared include an output makeup texture for applying the detection result by the makeup information detection unit 515 to a face model (3D face model) and a data storage makeup texture for storing the detected makeup information.
The makeup information is written to a makeup texture for data storage in association with each facial part, and is then stored in the data storage area 522 or the like of the storage unit 52. As a result, the next time the user uses the makeup simulation device 1, he or she can use the makeup information written to the makeup texture for data storage, and the makeup simulation process can be used more quickly and easily.

また、制御部51は、操作部10等からメイクに用いたいメイク色がユーザによって選択・設定されると、当該入力指示の内容を受け付けて、ユーザ所望のメイク色(化粧品色)を選択するメイク色選択手段(化粧品色選択手段)として機能する。
メイク色選択手段として制御部51が受け付け、選択したメイク色の情報は、出力用のメイクテクスチャにおける各メイク領域に適用される。
In addition, when a makeup color to be used for makeup is selected/set by the user from the operation unit 10 or the like, the control unit 51 functions as a makeup color selection means (cosmetic color selection means) that accepts the contents of the input instruction and selects the makeup color (cosmetic color) desired by the user.
The controller 51 receives the makeup color selection unit, and the information on the selected makeup color is applied to each makeup area in the makeup texture for output.

表示制御部516は、表示用のデータを生成し、表示部20の表示動作を制御する。
本実施形態の表示制御部516は、顔モデル生成部513によって生成された顔モデルに、メイク色選択手段としての制御部51によって選択されたメイク色をメイク情報に基づいて重畳し合成顔画像(第2の化粧顔画像)を生成する化粧顔画像合成生成手段として機能する。
具体的には、顔モデル生成部513によって生成された顔モデルに、メイク色の情報が書き込まれた出力用のメイクテクスチャを適用して、表示部20に出力する表示用のデータを生成する。
この表示用のデータに基づいて、表示部20には、ユーザ所望の色で、ユーザ自身の施したメイクの技法・技量により施されたメイクが、顔モデルに重畳された合成顔画像SF(第2の化粧顔画像、図9(c)参照)が表示される。
The display control unit 516 generates data for display and controls the display operation of the display unit 20 .
The display control unit 516 in this embodiment functions as a makeup face image synthesis generation means that superimposes the makeup color selected by the control unit 51 as a makeup color selection means on the face model generated by the face model generation unit 513 based on the makeup information to generate a composite face image (second makeup face image).
Specifically, an output makeup texture in which makeup color information is written is applied to the face model generated by the face model generation unit 513 to generate display data to be output to the display unit 20.
Based on this display data, the display unit 20 displays a composite face image SF (a second made-up face image, see Figure 9 (c)) in which makeup applied using the user's own makeup techniques and skills in the user's desired color is superimposed on a face model.

次に、図2から図4等を参照しつつ、本実施形態のメイクアップシミュレーション方法について説明する。 Next, the makeup simulation method of this embodiment will be described with reference to Figures 2 to 4.

図2は、メイクアップシミュレーション方法の概略を示すフローチャートである。
本実施形態のメイクアップシミュレーション装置1を用いてメイクアップシミュレーション処理を行う場合には、ユーザは、メイクアップシミュレーション装置1の操作部10等を操作して電源を入れ起動させる。
操作部10等から装置を利用するユーザ名やID等が入力されると、制御部51は、当該ユーザについてすでに記憶部52のデータ保存領域522等に保存されている顔モデルがあるか否かを判断する(ステップS1)。
すでに顔モデルが記憶されている場合(ステップS1;YES)には、制御部51は、記憶部52のデータ保存領域522等に保存されているメイクテクスチャがあるか否かを判断する(ステップS2)。
FIG. 2 is a flow chart showing an outline of the makeup simulation method.
When performing makeup simulation processing using the makeup simulation device 1 of this embodiment, a user operates the operation unit 10 etc. of the makeup simulation device 1 to turn on the power and start it up.
When the user name, ID, etc. of the user using the device is input from the operation unit 10, the control unit 51 determines whether or not there is a face model for that user already stored in the data storage area 522, etc. of the memory unit 52 (step S1).
If a face model has already been stored (step S1; YES), the control unit 51 determines whether or not there is a makeup texture stored in the data storage area 522 or the like of the storage unit 52 (step S2).

そして、すでにメイクテクスチャが保存されている場合(ステップS2;YES)には、さらに制御部51は、記憶部52のデータ保存領域522等に保存されているメイク情報、具体的には、データ保存用のメイクテクスチャに書き込まれている情報を、使用するか否かを判断する(ステップS3)。
具体的には、例えば何年何月に保存したメイク情報を今回のメイクアップシミュレーション処理に用いるか否かをユーザに問い合わせるメッセージ等を表示部20の表示画面等に表示させ、OKボタンの操作等により了承の意思表示がされたか否かを判断する。
なお、ユーザのメイクの技術や技量、好み等は経時的に変化するため、所定の期間以上前に得られたメイク情報では、現在のユーザの技術・技量等を適切に反映した結果が得られないことも考えられる。このため、保存されているメイク情報が所定の期間以上前のものである場合には、自動的に使用しないとの判断を行うようにしてもよい。
Then, if the makeup texture has already been saved (step S2; YES), the control unit 51 further determines whether or not to use the makeup information saved in the data saving area 522 of the memory unit 52, specifically, the information written in the makeup texture for saving data (step S3).
Specifically, a message or the like is displayed on the display screen of the display unit 20 asking the user whether or not to use makeup information saved in a certain month and year for the current makeup simulation process, and it is determined whether or not the user has expressed consent by operating an OK button or the like.
In addition, since a user's makeup technique, skill, preferences, etc. change over time, it is possible that makeup information obtained a predetermined period of time ago may not provide results that appropriately reflect the user's current technique, skill, etc. For this reason, if the saved makeup information is older than a predetermined period of time, it may be automatically determined not to use it.

当該ユーザについて、顔モデル、データ保存用のメイクテクスチャがまだ保存されていない場合(ステップS1及びステップS2;NO)、またはこれらは保存されているが、保存されているメイク情報を用いないと判断された場合(ステップS3;NO)には、制御部51は改めてメイク顔画像を取得する。
具体的には、撮影制御部511が撮影部30を制御してユーザのメイクアップ状態の顔を撮影させ、その画像であるメイク顔画像を取得する(ステップS4)。なお、撮影は正面からのみでもよし、正面と左右両側面等、複数取得してもよい。
If a face model and makeup texture for data storage have not yet been saved for the user (steps S1 and S2: NO), or if these have been saved but it is determined that the saved makeup information will not be used (step S3: NO), the control unit 51 acquires a new makeup face image.
Specifically, the photographing control unit 511 controls the photographing unit 30 to photograph the face of the user with makeup applied, and obtains the image, that is, the made-up face image (step S4). Note that photographing may be performed only from the front, or multiple images may be obtained, such as from the front and both left and right sides.

図5(a)は、メイク顔画像FIの一例を示したものである。
メイク顔画像FIを取得すると、制御部51はさらに、保存されている肌色情報があるか否かを判断する(ステップS5)。肌色情報がすでに記憶部52のデータ保存領域522等に保存されている場合(ステップS5;YES)には、当該保存されている肌色情報を記憶部52から読み出す(ステップS6)。
他方、保存されている肌色情報がない場合(ステップS5;NO)には、肌色情報を取得する(ステップS7)。前述のように、肌色情報は、メイクしていない状態のユーザを撮影して素肌顔画像を取得し、この素肌顔画像から検出してもよいし、測色計等で首や顔のメイクしていない部分の肌の色を測色することで取得してもよい。また、メイク顔画像のメイクをほとんどしていない部分から肌色を推定することにより肌色情報を取得してもよい。
そして、記憶部52等から肌色情報を読み出した場合又は新たに肌色情報を取得した場合には、制御部51はメイク情報の検出処理を行う(ステップS8)。
FIG. 5A shows an example of a made-up face image FI.
When the made-up face image FI is acquired, the control unit 51 further judges whether or not there is stored skin color information (step S5). If the skin color information is already stored in the data storage area 522 of the storage unit 52 (step S5; YES), the stored skin color information is read out from the storage unit 52 (step S6).
On the other hand, if there is no saved skin color information (step S5; NO), skin color information is acquired (step S7). As described above, skin color information may be detected from a bare-skin face image acquired by photographing a user without makeup, or may be acquired by measuring the skin color of the neck or face without makeup using a colorimeter or the like. Also, skin color information may be acquired by estimating the skin color from the part of the makeup-free face image where there is almost no makeup.
Then, when the skin color information is read from the storage unit 52 or the like, or when new skin color information is acquired, the control unit 51 performs a makeup information detection process (step S8).

図3は、メイク情報の検出処理(ステップS8)の詳細を説明するフローチャートである。
図3に示すように、メイク情報の検出を行う場合には、まず制御部51(顔モデル生成部513)が、メイク顔画像FIに基づいて顔モデルを生成する(ステップS21)。
また、制御部51(顔パーツ検出部514)が、メイク顔画像FIに基づいて顔パーツの情報を検出する(ステップS22)。
図5(b)は、図5(a)に示すメイク顔画像FIの要部を拡大して、図5(a)に示すメイク顔画像FIにおける顔パーツの例を示したものである。
図5(b)では、顔パーツとして、右目FP1、右眉毛FP2、左目FP3、右眉毛FP4、口FP5を検出する例を示している。図示はしていないが、他に頬等の部位を顔パーツとして検出してもよい。また、顔パーツとしては、顔の構成部のうち特徴点となり得るものをすべて抽出してもよいが、特にメイクとの対応付けを行わない部分(すなわち、ほとんどメイクを行わない部分)については検出しなくてもよく、例えば図5(b)において、鼻部分は特に顔パーツとして検出していない。
FIG. 3 is a flow chart for explaining the details of the makeup information detection process (step S8).
As shown in FIG. 3, when makeup information is detected, first, the control unit 51 (face model generating unit 513) generates a face model based on the made-up face image FI (step S21).
In addition, the control unit 51 (face part detection unit 514) detects information about face parts based on the made-up face image FI (step S22).
FIG. 5B is an enlarged view of a main portion of the made-up face image FI shown in FIG. 5A, showing examples of facial features in the made-up face image FI shown in FIG. 5A.
5B shows an example in which the right eye FP1, right eyebrow FP2, left eye FP3, right eyebrow FP4, and mouth FP5 are detected as facial parts. Although not shown, other parts such as cheeks may be detected as facial parts. Furthermore, as facial parts, all parts that can be feature points among the constituent parts of the face may be extracted, but parts that are not particularly associated with makeup (i.e., parts where little makeup is applied) do not need to be detected; for example, in FIG. 5B, the nose is not particularly detected as a facial part.

さらに、メイク情報検出部515が、メイク顔画像と肌色情報とに基づいてメイク情報を検出する。
メイク情報検出部515が検出するメイク情報は、メイクの位置を示すメイク領域とメイクの色情報、濃淡情報を含んでおり、メイク情報検出部515は、これらのメイク情報を各メイク領域Mar1~Mar4についてそれぞれ検出する。
濃淡情報は、例えば、各メイクに表現されるグラデーションやぼかし等であり、メイクをするユーザのメイクの技術・技量・好み等が反映される。
図5(c)は、メイク種類が、右目FP1のアイシャドウ、左目FP3のアイシャドウ、口FP5の上唇のリップと下唇のリップである場合に、それぞれのメイクの位置を示すメイク領域がメイク領域Mar1~Mar4である場合を示している。
Furthermore, the makeup information detection unit 515 detects makeup information based on the made-up face image and skin color information.
The makeup information detected by makeup information detection section 515 includes a makeup area indicating the position of makeup, and makeup color information and shading information, and makeup information detection section 515 detects this makeup information for each of makeup areas Mar1 to Mar4.
The shading information is, for example, the gradation or blurring expressed in each makeup application, and reflects the makeup technique, skill, preferences, etc. of the user who applies the makeup.
Figure 5 (c) shows a case where the makeup types are eye shadow on the right eye FP1, eye shadow on the left eye FP3, and upper and lower lips on the mouth FP5, and the makeup areas indicating the position of each makeup are makeup areas Mar1 to Mar4.

メイク情報検出部515は、具体的には以下のような手法によってメイク情報を検出する。
すなわち、メイク情報検出部515は、まず、メイク種類ごとに検出対象領域Ar1(図6(b)参照)を設定する(ステップS23)。
検出対象領域Ar1は、例えばメイク種類がアイシャドウであれば目のおよその周辺領域、リップであれば唇のおよその周辺領域を設定した後、さらに領域を絞り込んで設定される。
図6(a)及び図6(b)では、メイク情報検出部515が右目FP1周辺に施されるアイシャドウを検出する場合を例示している。
図6(a)は、右目FP1及び右眉毛FP2周辺領域を大まかに切り出した状態を示したものであり、図6(b)では、図6(a)に示す領域をさらに絞り込んで、アイシャドウを検出するために必要な領域(図中太枠で囲んだ領域)を検出対象領域Ar1として設定した状態を示している。
More specifically, makeup information detection unit 515 detects makeup information using the following method.
That is, makeup information detection unit 515 first sets a detection target area Ar1 (see FIG. 6B) for each type of makeup (step S23).
The detection target area Ar1 is set, for example, to the approximate area surrounding the eyes if the makeup type is eye shadow, or to the approximate area surrounding the lips if the makeup type is lip color, and then the area is further narrowed down and set.
6A and 6B show an example in which the makeup information detection unit 515 detects eye shadow applied around the right eye FP1.
Figure 6(a) shows the area around the right eye FP1 and right eyebrow FP2 roughly cut out, and Figure 6(b) shows the area shown in Figure 6(a) further narrowed down to the area required for detecting eyeshadow (the area surrounded by a thick frame in the figure) and set as the detection target area Ar1.

メイク情報検出部515は、検出対象領域Ar1を設定すると、この中から、明らかにアイシャドウを施さない領域である右目FP1及び右眉毛FP2を除外領域Ex1,Ex2として、メイク情報の検出処理を行う領域から除外する(ステップS24)。そして、まぶた周辺の肌部分のみをメイク情報の検出対象領域Ar1としてメイク情報の検出処理を行う。
なお、除外領域Ex1,Ex2を設定するにあたっては、前述の顔パーツ検出部514が顔パーツを検出する場合と同様に、元画像であるメイク顔画像に対して所定の微分フィルタ(例えば、ハイパスフィルタ等)を用いて微分演算を行い、輝度値や色や濃度に急峻な変化があるところをエッジとして検出するエッジ検出処理を行う。なお、顔パーツ検出部514による検出結果を利用して目の輪郭、眉毛の輪郭等を特定し、除外領域Ex1,Ex2を設定してもよい。
また、除外領域Ex1,Ex2の設定の仕方は図示例に限定されない。例えば、右目FP1の上側の境界を検出してそれより下の部分はすべて除外領域Ex1としてもよい。同様に右眉毛FP2の下側の境界を検出してそれより上の部分はすべて除外領域Ex2としてもよい。
After setting the detection target area Ar1, the makeup information detection unit 515 excludes the right eye FP1 and right eyebrow FP2, which are areas where eyeshadow is clearly not applied, as exclusion areas Ex1 and Ex2 from the area where makeup information detection processing is performed (step S24). Then, the makeup information detection processing is performed with only the skin area around the eyelids as the detection target area Ar1 for makeup information.
In setting the exclusion areas Ex1 and Ex2, similarly to the case where the face parts detection unit 514 detects face parts, a differentiation operation is performed on the original image, that is, the made-up face image, using a predetermined differentiation filter (e.g., a high-pass filter, etc.), and edge detection processing is performed to detect as edges areas where there are sharp changes in brightness value, color, or density. In addition, the detection results by the face parts detection unit 514 may be used to identify the outline of the eyes, the outline of the eyebrows, etc., and set the exclusion areas Ex1 and Ex2.
Furthermore, the method of setting the exclusion regions Ex1 and Ex2 is not limited to the illustrated example. For example, the upper boundary of the right eye FP1 may be detected and the whole area below it may be set as the exclusion region Ex1. Similarly, the lower boundary of the right eyebrow FP2 may be detected and the whole area above it may be set as the exclusion region Ex2.

なお、メイク情報(例えばアイシャドウの情報)を検出するために必要な領域として、どのような範囲を検出対象領域として設定するかは予めデフォルトで規定されていてもよい。例えば、アイシャドウは眼球と眉毛との間の領域に施されるため、眼球と眉毛とを含む領域であれば必ずその中にアイシャドウが施された領域が含まれている。このため、右側のアイシャドウを検出する場合には、図6(b)に示すように、検出対象領域Ar1として右目FP1及び右眉毛FP2を含む領域を設定する。
また、除外領域Ex1,Ex2を設定するにあたっても、除外すべき領域が予め規定されていてもよい。例えば、アイシャドウであれば眼球と眉毛が除外領域となり、アイラインであれば、アイラインを検出するためのアイラインの検出対象領域はアイシャドウの検出対象領域Ar1と類似の領域に設定されても、除外領域としては眼球及び眉毛の他、眼球と眉毛との間のまぶたの領域で眉毛寄りの上側部分を含めることが好ましい。これにより、目の際に施されるアイラインのメイク情報のみを的確に検出することができる。
In addition, the range to be set as the detection target area as the area necessary for detecting makeup information (e.g., eyeshadow information) may be specified in advance as a default. For example, since eyeshadow is applied to the area between the eyeball and the eyebrows, any area including the eyeball and the eyebrows necessarily includes an area where eyeshadow is applied. Therefore, when detecting eyeshadow on the right side, an area including the right eye FP1 and the right eyebrow FP2 is set as the detection target area Ar1, as shown in FIG. 6B.
Furthermore, when setting the exclusion regions Ex1 and Ex2, the regions to be excluded may be specified in advance. For example, in the case of eyeshadow, the eyeballs and eyebrows are the exclusion regions, and in the case of eyeliner, even if the detection target region for the eyeliner to detect the eyeliner is set to a region similar to the detection target region Ar1 for the eyeshadow, it is preferable that the exclusion region includes not only the eyeballs and eyebrows, but also the upper part of the eyelid region between the eyeballs and the eyebrows, close to the eyebrows. This makes it possible to accurately detect only the makeup information of the eyeliner applied around the eyes.

検出対象領域(例えば、アイシャドウを検出する場合の検出対象領域Ar1)のうち、除外領域Ex1,Ex2を除いた範囲からメイク情報(例えばアイシャドウの情報)を検出する具体的な手法としては、各種のものが適用可能である。
例えば、本実施形態では、ユーザの肌色情報と、メイク顔画像におけるメイク情報の検出領域内の輝度や明度とを比較したときにその差分の大きな部分を、メイクを施しているメイク領域であると検出する。
すなわち、メイク情報検出部515は、メイク顔画像における検出対象領域Ar1内で、例えば1画素ごとに、当該画素のメイク顔画像における色情報と、ユーザの肌色情報との色の差分を求める(ステップS25)。
Various specific methods can be applied to detect makeup information (e.g., eyeshadow information) from the range of the detection target area (e.g., detection target area Ar1 when detecting eyeshadow) excluding the exclusion areas Ex1 and Ex2.
For example, in this embodiment, when comparing the user's skin color information with the luminance or brightness within the detection area of the makeup information in the made-up face image, the area with the largest difference is detected as the makeup area where makeup is applied.
That is, the makeup information detection unit 515 calculates, for each pixel within the detection target area Ar1 in the made-up face image, the color difference between the color information of that pixel in the made-up face image and the skin color information of the user (step S25).

色の差分を求める方法としては色差等を用いることができる。メイク情報検出部515は、この差分が一定の閾値以上であるか否かを判断し(ステップS26)、差分が閾値以上である場合(ステップS26;YES)に、当該部分(画素)は素肌の色とは異なる、すなわちメイクが施されている部分であると判定する(ステップS27)。
当該画素がメイクを施された領域の画素である場合には、メイク情報検出部515は、当該画素におけるメイクの色情報を、例えばRGB(すなわちRED、GREEN、BLUE)値でデータ保存用のメイクテクスチャFT(図7参照)の該当箇所にセットする(ステップS28)。
The method for determining the color difference can be color difference, etc. The makeup information detection unit 515 judges whether the difference is equal to or greater than a certain threshold (step S26), and if the difference is equal to or greater than the threshold (step S26; YES), it judges that the part (pixel) is different in color from the bare skin, that is, that the part is made up (step S27).
If the pixel is in an area where makeup has been applied, makeup information detection unit 515 sets the makeup color information of the pixel in question, for example as an RGB (i.e., RED, GREEN, BLUE) value, in the corresponding location of the makeup texture FT (see Figure 7) for data storage (step S28).

なお、メイク情報検出部515によって検出され、データ保存用のメイクテクスチャに書き込まれるメイクの色情報は、各メイク領域における各画素の濃淡情報を含むものである。
図7は、データ保存用のメイクテクスチャの一例を示したものである。
例えば、図7に示すアイシャドウが施されたメイク領域では、濃い青から薄い青まで複数段階でグラデーションがかかっている。そこで、各色のレベルに応じて、例えば「B1」から「B4」までの色情報が書き込まれる。これに対して、リップが施されたメイク領域は均一な濃さで塗られているため、リップのメイク領域内の画素には例えばすべて「R2」の色情報が書き込まれる。
なお、図7では模式的にしか表現していないが、こうした濃淡情報を含む色情報は、メイク情報検出部515によって例えば1画素ごとに検出され、詳細にデータ保存用のメイクテクスチャに書き込まれる。
The makeup color information detected by makeup information detection unit 515 and written to the makeup texture for data storage includes shading information for each pixel in each makeup area.
FIG. 7 shows an example of a make texture for data storage.
For example, the makeup area with eyeshadow applied as shown in Fig. 7 has multiple gradations ranging from dark blue to light blue. Therefore, color information ranging from "B1" to "B4" is written according to the level of each color. In contrast, the makeup area with lipstick applied is painted with a uniform darkness, so color information of "R2", for example, is written to all pixels in the lipstick area.
Although FIG. 7 only shows a schematic representation, color information including such shading information is detected by makeup information detection unit 515, for example, for each pixel, and written in detail to a makeup texture for data storage.

図7において「α」で示される値(α値;alpha value)は、色情報とは別に画素(ピクセル)ごとに設けられた付加情報を表す数値である。本実施形態では、メイクの有無、種類がα値で表現される。
データ保存用のメイクテクスチャの初期状態のα値はすべて0とし、メイクが施されていない部分(図7においてメイクなし領域NMar)のα値は0のままである。
これに対して左右のアイシャドウに対応するメイク領域Mar1,Mar2には「α=0.1」が設定され、上唇と下唇のリップに対応するメイク対象領域Mar3,Mar4には「α=0.3」が設定されている。この他、図示は省略するが、例えば頬部分のチークに対応するメイク対象領域には例えば「α=0.2」等が設定されてもよい。
メイク情報検出部515は、メイク領域に対応するメイク種類との対応付けα値をセットする(ステップS29)。
7, the value indicated by "α" (α value; alpha value) is a numerical value that indicates additional information provided for each pixel separately from color information. In this embodiment, the presence or absence and type of makeup are expressed by the α value.
The alpha values of the initial state of the makeup texture for data storage are all set to 0, and the alpha values of the parts where makeup is not applied (the no-makeup area NMar in FIG. 7) remain at 0.
In contrast, the makeup areas Mar1 and Mar2 corresponding to the left and right eye shadows are set to "α = 0.1," and the makeup target areas Mar3 and Mar4 corresponding to the upper and lower lips are set to "α = 0.3." In addition, although not shown in the figures, for example, the makeup target area corresponding to the blush on the cheeks may be set to "α = 0.2," etc.
The makeup information detection unit 515 sets an α value associated with the makeup type corresponding to the makeup area (step S29).

なお、例えば、アイシャドウは青、チークはピンク、リップは赤、というように、メイクの種類ごとに特定の色が指定された専用の化粧品を使用してユーザにメイクをしてもらい、メイク顔画像を取得してもよい。この場合には、画像から色を検出すれば当該色情報からそれがどの顔パーツに対応するどのような種類のメイクであるか(例えばそれがアイシャドウであるのかリップであるのか等)を特定することができ、メイク情報の検出精度を向上させることが可能となる。なお、通常の化粧品を用いてメイクをした状態でメイク顔画像を取得した場合でも、ある程度、色を見ることで各メイクの種類やメイクが施されている位置、対応付けるべき顔パーツを把握することは可能である。 It is also possible to have the user apply makeup using specialized cosmetics with specific colors designated for each type of makeup, such as blue eyeshadow, pink cheeks, and red lips, and obtain a made-up face image. In this case, by detecting colors from the image, it is possible to identify from the color information what type of makeup corresponds to which facial part (for example, whether it is eyeshadow or lipstick), thereby improving the accuracy of makeup information detection. Even if a made-up face image is obtained in which the user has applied makeup using normal cosmetics, it is possible to ascertain to some extent the type of makeup, the position where the makeup is applied, and the facial part to which it should be associated, by looking at the colors.

また、ここではメイク情報検出部515が、設定した検出対象領域Ar1から除外領域Ex1,Ex2を除いた全範囲内で各画素の色と肌色との差分を判定する例を示したが、他の手法として類似色の領域を抽出することも可能である。例えば、設定した検出対象領域Ar1内からメイクが施されているであろう位置を一カ所推定し、肌色と当該箇所の色との差分が閾値以上であるとき、推定した箇所の色を基準として類似色の領域を検出する。
類似色の領域検出は、各種の画像編集・処理用のソフトウエアプログラムにおいて用いられる色域を選択する手法等を適用することによって実現することができる。
色域とは、例えば、HSV等の色空間で、それぞれの成分ごとのヒストグラムから対象色の閾値を指定することによって求められる。
このように類似色の領域を検出する場合には、1画素ずつ検出する場合よりも処理速度の向上が期待できる。
In addition, although an example has been shown here in which the makeup information detection unit 515 determines the difference between the color of each pixel and the skin color within the entire range excluding the exclusion areas Ex1 and Ex2 from the set detection target area Ar1, it is also possible to extract areas of similar colors using other methods. For example, a position where makeup is likely to be applied is estimated from within the set detection target area Ar1, and when the difference between the skin color and the color of that position is equal to or greater than a threshold, an area of similar color is detected based on the color of the estimated position.
Similar color area detection can be achieved by applying a color gamut selection technique used in various image editing and processing software programs.
The color gamut is determined by specifying a threshold value for a target color from a histogram for each component in a color space such as HSV.
When detecting areas of similar colors in this way, it is expected that the processing speed will be improved compared to when detecting each pixel one by one.

メイク情報検出部515は、画素の色について算出した差分が所定の閾値を超えない場合(ステップS26;NO)またはメイク領域と判定された画素の色情報やα値をデータ保存用のテクスチャに書き込むと、検出対象領域Ar1内(除外領域Ex1,Ex2を除く)の検出が終了したか否かを判断する(ステップS30)。
そしてまだ全画素の検出処理が終了していない場合(ステップS30;NO)には、ステップS25に戻って次の画素について同様の処理を繰り返す。
他方、全画素の検出処理が終了している場合(ステップS30;YES)には、メイク情報検出部515はさらに、他に検出対象領域があるか否かを判断する(ステップS31)。そして他にも検出処理を行っていない検出対象領域がある場合(ステップS31;YES)には、ステップS24に戻って次の検出対象領域について同様の処理を繰り返す。
他方、すべての検出対象領域についての検出処理が終了している場合(ステップS31;YES)には、メイク情報の検出処理を終了する。
If the calculated difference in pixel color does not exceed a predetermined threshold value (step S26; NO), or if the makeup information detection unit 515 writes the color information and alpha value of the pixel determined to be a makeup area to a texture for storing data, it determines whether detection within the detection target area Ar1 (excluding the exclusion areas Ex1 and Ex2) has been completed (step S30).
If the detection process has not yet been completed for all pixels (step S30; NO), the process returns to step S25 and the same process is repeated for the next pixel.
On the other hand, if the detection process has been completed for all pixels (step S30; YES), makeup information detection unit 515 further determines whether there are other detection target regions (step S31). If there are other detection target regions for which the detection process has not been performed (step S31; YES), the process returns to step S24 and the same process is repeated for the next detection target region.
On the other hand, if the detection process has been completed for all detection target regions (step S31; YES), the makeup information detection process ends.

メイクアップシミュレーション処理に必要なすべての情報が取得されると、図2に戻り、メイク情報の検出処理において取得された各種の情報、具体的には顔モデルやデータ保存用のメイクテクスチャが記憶部52のデータ保存領域522に保存される(ステップS9)。
なお、ユーザの素肌顔画像や肌色情報等も記憶部52のデータ保存領域522に保存されることが好ましい。
ユーザのメイク情報や、肌色情報等を記憶させておくことにより、次回以降はメイク情報や肌色情報等を取得する手間を省いて簡易・迅速にメイクアップシミュレーション処理を行うことが可能となる。
Once all the information necessary for the makeup simulation processing has been acquired, returning to FIG. 2, the various information acquired in the makeup information detection processing, specifically the face model and makeup texture for data storage, are stored in the data storage area 522 of the memory unit 52 (step S9).
It is preferable that the user's bare face image, skin color information, etc. are also stored in the data storage area 522 of the storage unit 52.
By storing the user's makeup information, skin color information, etc., it becomes possible to perform makeup simulation processing easily and quickly from the next time onwards without having to go through the trouble of acquiring makeup information, skin color information, etc.

記憶部52への各種情報の記憶が完了すると、メイクアップシミュレーションをユーザに提示するメイクアップシミュレーション提示処理を行うことができる状態となる(ステップS10)。
図4は、メイクアップシミュレーション提示処理(ステップS10)の詳細を説明するフローチャートである。
When the storage of various information in the storage unit 52 is completed, it becomes possible to perform a makeup simulation presentation process for presenting a makeup simulation to the user (step S10).
FIG. 4 is a flowchart illustrating the details of the makeup simulation presentation process (step S10).

図4に示すように、メイクアップシミュレーション提示処理では、まず、ユーザがメイクの色を変更したいメイク種類と変更したいメイク色を設定する(ステップS41)。
具体的には、表示制御部516がメイク色選択画面21を表示部20の表示画面に表示させる。
図8は、メイク色選択画面の一例を示す画面例である。
図8に示すように、メイク色選択画面21には、例えばユーザの画像が表示されたユーザ表示欄21aや、各メイク領域に塗布したいメイク色候補が一覧に並べられた候補色選択欄21b等が表示されるようになっている。
ユーザ表示欄21aに表示される画像は、例えばメイク顔画像から取得されたメイクの色情報のRGB値が各メイク領域(メイク対応箇所)に書き込まれた出力用のメイクテクスチャを立体的な顔モデルに適用したものであり、このメイクテクスチャに書き込まれているRGB値をHSV空間等に変換して表示用データとして出力させることで、ユーザのメイク顔画像が立体的な画像として表示部20の表示画面に表示される。
なお、表示部20に表示される画像は、ユーザのものではない一般的・平均的な顔モデルが示されてもよい。
As shown in FIG. 4, in the makeup simulation presentation process, first, the user sets the type of makeup to which the user wishes to change the makeup color and the makeup color to which the user wishes to change (step S41).
Specifically, the display control unit 516 causes the makeup color selection screen 21 to be displayed on the display screen of the display unit 20 .
FIG. 8 is an example of a makeup color selection screen.
As shown in FIG. 8, the makeup color selection screen 21 displays, for example, a user display field 21a in which an image of the user is displayed, and a candidate color selection field 21b in which a list of candidate makeup colors to be applied to each makeup area is displayed.
The image displayed in the user display area 21a is, for example, an output makeup texture in which the RGB values of makeup color information obtained from a made-up face image are written into each makeup area (area corresponding to makeup) and applied to a three-dimensional face model.The RGB values written in this makeup texture are converted into HSV space or the like and output as display data, so that the made-up face image of the user is displayed on the display screen of the display unit 20 as a three-dimensional image.
The image displayed on the display unit 20 may be a general or average face model that is not that of the user.

そして、ユーザがユーザ表示欄21a等において、メイク色を変更したいメイク種類(例えば右目のアイシャドウ)のメイク領域を選択し、当該メイク部分に塗布したい色(例えばアイシャドウであれば、現状表示されているものよりも色味の淡い青色等)を、候補色選択欄21bから選んで設定する。すなわち、ユーザがそれぞれ所望の色を操作部10(表示部20に設定されたタッチパネルを含む)等から選択し、入力することでその操作信号が制御部51に出力されて、各メイク種類ごとのメイク色が設定される。
図9(a)は、右目のアイシャドウのメイク領域Mar1、左目のアイシャドウのメイク領域Mar2、上下のリップのメイク領域Mar3,Mar4にそれぞれ図5(c)に示したものとは異なるメイク色が設定された様子を示した図である。
Then, the user selects the makeup area of the makeup type for which the user wishes to change the makeup color (e.g., eye shadow for the right eye) in the user display field 21a or the like, and selects and sets the color to be applied to that makeup area (e.g., for eye shadow, a lighter blue color than the currently displayed color) from the candidate color selection field 21b. That is, the user selects and inputs the desired color from the operation unit 10 (including a touch panel set on the display unit 20) or the like, and the operation signal is output to the control unit 51, and the makeup color for each makeup type is set.
FIG. 9(a) is a diagram showing a state in which makeup colors different from those shown in FIG. 5(c) are set in the eyeshadow makeup area Mar1 for the right eye, the eyeshadow makeup area Mar2 for the left eye, and the upper and lower lip makeup areas Mar3 and Mar4.

メイク色が設定されると、制御部51(例えば表示制御部516)は、データ保存用のメイクテクスチャを記憶部52から読み出して当該メイクテクスチャの該当箇所のRGB値を取得する(ステップS42)。そしてユーザが変更希望した箇所のメイクの色情報を設定されたメイク色に色調補正する(ステップS43)。
その上で出力用のメイクテクスチャを用意し、その該当箇所に色調補正後のRGB値を書き込む(ステップS44)。
さらに、制御部51は、出力用のメイクテクスチャの該当箇所のα値を変更して透過設定を解除する(ステップS44)。
When the makeup color is set, the control unit 51 (e.g., the display control unit 516) reads out the makeup texture for data storage from the storage unit 52 and acquires the RGB values of the corresponding portion of the makeup texture (step S42). Then, the control unit 51 performs color correction on the makeup color information of the portion that the user wishes to change to the set makeup color (step S43).
Then, an output make texture is prepared, and the RGB values after color correction are written in the corresponding locations (step S44).
Furthermore, the control unit 51 changes the alpha value of the corresponding portion of the output makeup texture to cancel the transparency setting (step S44).

すなわち、出力用のメイクテクスチャにおいても、データ保存用のメイクテクスチャと同様に、何ら情報が書き込まれていない部分(すなわちメイク情報が存在しない部分)は、α値が0の初期状態(すなわち、「α=0」)であって、これを顔モデルに重畳しても完全に透過されて何も表示されない。
そこで、制御部51は、出力用のメイクテクスチャのうち、色調補正後のRGB値が書き込まれた箇所について順次α値を「0」から各メイク種類を示す値に変更する。例えばアイシャドウ部分であれば、「α=0」を「α=0.1」に変更する。これにより表示部20の表示画面上でアイシャドウ部分の色が、ユーザが設定したメイク色に変更される。
That is, in the makeup texture for output, just like the makeup texture for data storage, the parts in which no information is written (i.e., parts where no makeup information exists) have an initial α value of 0 (i.e., "α=0"), and even if this is superimposed on a face model, it becomes completely transparent and nothing is displayed.
Therefore, the control unit 51 sequentially changes the α value from "0" to a value indicating each makeup type for the portions of the output makeup texture where the RGB values after color correction have been written. For example, for the eye shadow portion, "α=0" is changed to "α=0.1." As a result, the color of the eye shadow portion on the display screen of the display unit 20 is changed to the makeup color set by the user.

制御部51は、各メイクの色情報がユーザの選択・設定した色に変更された出力用のメイクテクスチャを生成すると、これを顔モデルに適用する。
そして、これに基づいて、メイク情報に含まれる色情報がユーザにより設定されたメイク色に変更された合成顔画像SFを表示部20に表示させる。
図9(b)は、表示部20に表示される合成顔画像SFの一例を示したものであり、図9(c)は、図9(b)における各顔パーツ周辺を拡大して示したものである。
図9(b)及び9(c)に示すように、本実施形態では、元のメイク顔画像に表されるユーザ本人のメイクの技術・技量(例えば図5(a)及び5(b)参照)はそのままに、色のみを変更した状態を表示部20の表示画面上で再現し、確認することができる。
When the control unit 51 generates an output makeup texture in which the color information of each makeup has been changed to the color selected and set by the user, it applies this to the face model.
Based on this, the display unit 20 displays a composite face image SF in which the color information included in the makeup information has been changed to the makeup color set by the user.
FIG. 9B shows an example of the composite face image SF displayed on the display unit 20, and FIG. 9C shows an enlarged view of the periphery of each face feature in FIG. 9B.
As shown in Figures 9(b) and 9(c), in this embodiment, the user's makeup technique and skill (e.g., see Figures 5(a) and 5(b)) shown in the original made-up face image is left intact, while only the color is changed, and the state can be reproduced and confirmed on the display screen of the display unit 20.

なお、図2~図4に示した処理手順は一例であり、処理の順序が適宜前後してもよい。 Note that the processing procedures shown in Figures 2 to 4 are merely examples, and the order of processing may be changed as appropriate.

以上のように、本実施形態によれば、メイクを施したユーザのメイク顔画像を取得して、メイク顔画像に基づいて、メイクのベースとなる顔モデルを生成し、メイク顔画像から顔のパーツに関する顔パーツ情報を検出するとともに、各顔パーツごとに、メイクされている領域(メイク領域)やメイクの色、濃淡情報等を含むメイク情報を検出する。そして、メイクに用いたいメイク色をユーザが選択すると、顔モデルに当該選択されたメイク色でメイク情報に応じたメイクを施した合成顔画像を生成して表示部20に表示させるようになっている。
これにより、試してみたい色の化粧品等を実際に顔にメイクをして試さなくても、ユーザ自身の技術や技量に応じて用いた場合にどのような仕上がりとなるのかを、表示部20の表示画面上で確認することができる。このため、実際の仕上がりをイメージしやすく、ユーザ自身で使いこなすことのできない色の化粧品を購入してしまう失敗を回避することができる。
As described above, according to this embodiment, a made-up face image of a user with makeup applied is acquired, a face model that serves as a base for makeup is generated based on the made-up face image, face part information related to face parts is detected from the made-up face image, and makeup information including the area where makeup is applied (make-up area), makeup color, shading information, etc. is detected for each face part. Then, when the user selects a makeup color to be used for makeup, a composite face image is generated in which makeup is applied to the face model with the selected makeup color according to the makeup information, and the composite face image is displayed on the display unit 20.
This allows the user to check on the display screen of the display unit 20 what the final result will be when the user uses the cosmetics of the color he or she wants to try according to his or her own skills and abilities, without actually applying makeup to the face. This makes it easy to imagine the actual final result, and helps the user avoid making the mistake of purchasing cosmetics of a color that the user cannot use.

また、本実施形態では、少なくともメイクを施したユーザの顔を撮影する撮影部30を備え、撮影部30で撮影されたメイク顔画像に基づいてメイクのベースとなる顔モデルを生成したり、ユーザ自身のメイクの仕方に関するメイク情報を取得することができる。
このため、過去の画像等から読み込むよりも、より現状のレベル等に応じた結果を確認することができる。
In addition, in this embodiment, a photographing unit 30 is provided that photographs at least the face of the user with makeup applied, and a face model that serves as the basis for makeup can be generated based on the made-up face image photographed by the photographing unit 30, and makeup information regarding the user's own makeup application method can be obtained.
Therefore, it is possible to confirm results that are more in line with the current level, etc., than by reading in past images, etc.

また、メイクをしている箇所の色との差分を取得するための肌色情報を、メイクを施していないユーザの素肌顔画像から取得するとした場合には、メイクをしている肌から推測する等の手法による場合よりも、より正確に肌色を検出することができ、肌色との差分を正確に算出することができる。 In addition, if skin color information for obtaining the difference with the color of areas where makeup is applied is obtained from a bare facial image of a user not wearing makeup, it is possible to detect skin color more accurately than by using methods such as inferring it from the skin where makeup is applied, and the difference with skin color can be calculated more accurately.

また、メイクのベースとなる顔モデルとして立体的な画像を生成した場合には、あたかも実際にメイクを試したようなリアリティのある画像でメイクアップシミュレーションを体験することができる。 In addition, if a three-dimensional image is generated as a face model to serve as the basis for makeup, you can experience a makeup simulation with a realistic image that makes you feel as if you are actually trying on the makeup.

また、メイク情報は少なくともメイクの位置を示すメイク領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項4のいずれか一項に記載のメイクアップシミュレーション装置。 The makeup simulation device according to any one of claims 1 to 4, further characterized in that the makeup information includes at least makeup area information indicating the position of the makeup and shading information of the application color.

また、顔モデル及びメイク情報を記憶部52のデータ保存領域522に記憶させるようにした場合には、2回目以降にメイクアップシミュレーション処理を体験するときに、メイクを施した顔の画像を撮影する必要がなく、ユーザにとっての負担を軽減することができる。また、すでに取得してある情報を用いることができるため、処理にかかる時間も短縮することができ、簡易かつ迅速にメイクアップシミュレーションを試すことが可能となる。
さらに、過去に取得されたメイク情報を保存しておいた場合には、例えば、メイクアップシミュレーションを体験する際にはその都度新たにメイク情報等を取得してそれに基づく表示を行うものとし、新たに取得されたメイク情報と過去のメイク情報とを比較できるようにすることも可能となる。この場合には、ユーザのメイクの仕方、技術や技量の変化、向上等をメイク情報の変化から確認することができる。
Furthermore, if the face model and makeup information are stored in the data storage area 522 of the storage unit 52, there is no need to take an image of the face with makeup applied when experiencing the makeup simulation process for the second or subsequent times, which reduces the burden on the user. Also, since information that has already been acquired can be used, the time required for processing can be shortened, making it possible to try out the makeup simulation simply and quickly.
Furthermore, if makeup information acquired in the past is saved, for example, new makeup information etc. can be acquired each time a makeup simulation is experienced, and the display based on that information can be made, so that the newly acquired makeup information can be compared with the previous makeup information. In this case, the user's makeup style, changes and improvements in technique and skill can be confirmed from the changes in the makeup information.

なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。 Although the above describes an embodiment of the present invention, it goes without saying that the present invention is not limited to such an embodiment and various modifications are possible without departing from the spirit of the present invention.

例えば、本実施形態では、メイク情報に基づいた合成顔画像SFを表示部20に表示させるとしたが、メイクアップシミュレーション装置1に印刷装置を接続することができる場合には、合成顔画像SF等を印刷装置から出力させてもよい。
またこのような出力を行う場合、各メイク領域においてユーザが選択したメイク色の識別番号(例えば、アイシャドウであればブルー系の何番の色、リップであればピンク系の何番の色等)や当該メイク色に対応する品番(例えば〇番のアイシャドウ、〇番のリップ)等も合わせて出力させてもよい。
For example, in this embodiment, a composite face image SF based on makeup information is displayed on the display unit 20, but if a printing device can be connected to the makeup simulation device 1, the composite face image SF, etc. may be output from the printing device.
In addition, when performing such output, the identification number of the makeup color selected by the user in each makeup area (for example, a blue color number for eye shadow, a pink color number for lipstick, etc.) and a product number corresponding to the makeup color (for example, eye shadow number XX, lipstick number XX) may also be output.

また、ユーザの実際のメイクに基づくメイク情報が再現されたメイクアップシミュレーション処理の結果画像である合成顔画像SFとともに、例えばアイシャドウやチーク等を塗布する範囲やユーザの肌色と相性のいい色等についてのアドバイスや提案、塗布例等が表示されるようにしてもよい。 In addition to the composite face image SF, which is the result of the makeup simulation process that reproduces makeup information based on the user's actual makeup, advice, suggestions, and application examples regarding, for example, the areas to apply eye shadow, blush, etc., and colors that go well with the user's skin color, may be displayed.

以上本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
化粧に用いたい化粧品の色を選択する化粧品色選択手段と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
前記第2の化粧顔画像を表示する表示手段と、
を備えることを特徴とするメイクアップシミュレーション装置。
<請求項2>
さらに、化粧を施された前記ユーザの顔を撮影する撮影手段を備え、
前記化粧顔画像取得手段は、前記撮影手段により撮影された化粧顔画像を取得することを特徴とする請求項1に記載のメイクアップシミュレーション装置。
<請求項3>
さらに、ユーザの化粧を施していない肌の肌色情報を取得する肌色情報取得手段を備え、
前記肌色情報は、化粧を施していないユーザの素肌顔画像から取得されることを特徴とする請求項1又は請求項2に記載のメイクアップシミュレーション装置。
<請求項4>
前記化粧顔画像に基づいて、化粧をシミュレーションする顔モデルを生成する顔モデル生成手段を備え、前記顔モデルとして立体的な画像を生成することを特徴とする請求項1から請求項3のいずれか一項に記載のメイクアップシミュレーション装置。
<請求項5>
前記顔モデル及び前記化粧情報を記憶する記憶部を備えていることを特徴とする請求項4に記載のメイクアップシミュレーション装置。
<請求項6>
前記化粧情報は少なくとも化粧の位置を示す化粧領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項5のいずれか一項に記載のメイクアップシミュレーション装置。
<請求項7>
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得工程と、
前記化粧顔画像から化粧情報を検出する化粧情報検出工程と、
化粧に用いたい化粧品の色を選択する化粧品色選択工程と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択工程によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成工程と、
前記第2の化粧顔画像を表示手段に表示させる表示工程と、
を含むことを特徴とするメイクアップシミュレーション方法。
<請求項8>
コンピュータに、
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得機能と、
前記化粧顔画像から化粧情報を検出する化粧情報検出機能と、
化粧に用いたい化粧品の色を選択する化粧品色選択機能と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択機能によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成機能と、
前記第2の化粧顔画像を表示手段に表示させる表示機能と、
を実現させることを特徴とするプログラム。
Although several embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and its equivalents.
The inventions described in the claims originally attached to this application are set forth below. The claim numbers in the appended claims are the same as those in the claims originally attached to this application.
[Additional Notes]
<Claim 1>
A makeup face image acquisition means for acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection means for detecting makeup information from the makeup face image;
A cosmetic color selection means for selecting a color of a cosmetic product to be used for makeup;
a makeup-applied face image synthesis generating means for generating a second makeup-applied face image by changing a color of the makeup-applied face image of the user to the color of the cosmetic product selected by the cosmetic color selecting means based on the makeup information;
a display means for displaying the second made-up face image;
A makeup simulation device comprising:
<Claim 2>
Further, a photographing means is provided for photographing the face of the user to which makeup has been applied,
2. The makeup simulation device according to claim 1, wherein the made-up face image acquisition means acquires a made-up face image photographed by the photographing means.
<Claim 3>
The skin color information acquisition means further includes a skin color information acquisition unit for acquiring skin color information of the user's skin when no makeup is applied,
3. The makeup simulation device according to claim 1, wherein the skin color information is obtained from a bare face image of a user not wearing makeup.
<Claim 4>
4. The makeup simulation device according to claim 1, further comprising a face model generating means for generating a face model for simulating makeup based on the made-up face image, and generating a three-dimensional image as the face model.
<Claim 5>
5. The makeup simulation device according to claim 4, further comprising a storage unit for storing said face model and said makeup information.
<Claim 6>
6. The makeup simulation device according to claim 1, wherein the makeup information includes at least makeup area information indicating a position of makeup and shading information of application color.
<Claim 7>
A makeup face image acquisition step of acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection step of detecting makeup information from the makeup-based face image;
A cosmetic color selection step of selecting a cosmetic color to be used for makeup;
a makeup-applied face image synthesis generating step of generating a second makeup-applied face image by changing a color of the makeup-applied face image of the user to the color of the cosmetic selected in the cosmetic color selection step based on the makeup information;
a display step of displaying the second made-up face image on a display means;
A makeup simulation method comprising:
<Claim 8>
On the computer,
A makeup face image acquisition function for acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection function for detecting makeup information from the makeup face image;
A cosmetic color selection function for selecting the color of the cosmetic to be used for makeup;
a makeup face image synthesis generating function for generating a second makeup face image by changing a color of the makeup face image of the user to the color of the makeup applied based on the makeup information, to the color of the makeup face selected by the makeup color selecting function;
A display function for displaying the second makeup face image on a display means;
A program for realizing the above.

1 メイクアップシミュレーション装置
20 表示部
30 撮影部
51 制御部
52 記憶部
511 撮影制御部
512 画像処理部
513 顔モデル生成部
514 顔パーツ検出部
515 メイク情報検出部
516 表示制御部
521 プログラム記憶領域
522 データ保存領域
1 Makeup simulation device 20 Display unit 30 Photography unit 51 Control unit 52 Storage unit 511 Photography control unit 512 Image processing unit 513 Face model generation unit 514 Face part detection unit 515 Makeup information detection unit 516 Display control unit 521 Program storage area 522 Data storage area

Claims (8)

化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得手段と、
前記化粧顔画像から化粧情報を検出する化粧情報検出手段と、
前記ユーザに施された化粧とは独立して予め定められた複数の化粧品の色から化粧に用いたい化粧品の色を選択することをユーザから受け付ける化粧品色選択手段と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択手段によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成手段と、
前記第2の化粧顔画像を表示する表示手段と、
を備えることを特徴とするメイクアップシミュレーション装置。
A makeup face image acquisition means for acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection means for detecting makeup information from the makeup face image;
a cosmetic color selection means for accepting, from a user, a selection of a cosmetic color to be used for makeup from a plurality of cosmetic colors that are predetermined independently of the makeup applied by the user ;
a makeup-applied face image synthesis generating means for generating a second makeup-applied face image by changing a color of the makeup-applied face image of the user to the color of the cosmetic product selected by the cosmetic color selecting means based on the makeup information;
a display means for displaying the second made-up face image;
A makeup simulation device comprising:
さらに、化粧を施された前記ユーザの顔を撮影する撮影手段を備え、
前記化粧顔画像取得手段は、前記撮影手段により撮影された化粧顔画像を取得することを特徴とする請求項1に記載のメイクアップシミュレーション装置。
Further, a photographing means is provided for photographing the face of the user to which makeup has been applied,
2. The makeup simulation device according to claim 1, wherein the made-up face image acquisition means acquires a made-up face image photographed by the photographing means.
さらに、ユーザの化粧を施していない肌の肌色情報を取得する肌色情報取得手段を備え、
前記肌色情報は、化粧を施していないユーザの素肌顔画像から取得されることを特徴とする請求項1又は請求項2に記載のメイクアップシミュレーション装置。
The skin color information acquisition means further includes a skin color information acquisition unit for acquiring skin color information of the user's skin when no makeup is applied,
3. The makeup simulation device according to claim 1, wherein the skin color information is obtained from a bare face image of a user not wearing makeup.
前記化粧顔画像に基づいて、化粧をシミュレーションする顔モデルを生成する顔モデル生成手段を備え、前記顔モデルとして立体的な画像を生成することを特徴とする請求項1から請求項3のいずれか一項に記載のメイクアップシミュレーション装置。 The makeup simulation device according to any one of claims 1 to 3, further comprising a face model generation means for generating a face model for simulating makeup based on the made-up face image, and for generating a three-dimensional image as the face model. 前記顔モデル及び前記化粧情報を記憶する記憶部を備えていることを特徴とする請求項4に記載のメイクアップシミュレーション装置。 The makeup simulation device according to claim 4, further comprising a storage unit for storing the face model and the makeup information. 前記化粧情報は少なくとも化粧の位置を示す化粧領域の情報及び塗布色の濃淡情報を含んでいることを特徴とする請求項1から請求項5のいずれか一項に記載のメイクアップシミュレーション装置。 The makeup simulation device according to any one of claims 1 to 5, characterized in that the makeup information includes at least makeup area information indicating the position of makeup and shading information of the application color. 化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得工程と、
前記化粧顔画像から化粧情報を検出する化粧情報検出工程と、
前記ユーザに施された化粧とは独立して予め定められた複数の化粧品の色から化粧に用いたい化粧品の色を選択することをユーザから受け付ける化粧品色選択工程と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択工程によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成工程と、
前記第2の化粧顔画像を表示手段に表示させる表示工程と、
を含むことを特徴とするメイクアップシミュレーション方法。
A makeup face image acquisition step of acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection step of detecting makeup information from the makeup-based face image;
a cosmetic color selection step of accepting, from a user, a selection of a cosmetic color to be used in the makeup from a plurality of cosmetic colors predetermined independently of the makeup applied by the user ;
a makeup-applied face image synthesis generating step of generating a second makeup-applied face image by changing a color of the makeup-applied face image of the user to the color of the cosmetic selected in the cosmetic color selecting step based on the makeup information;
a display step of displaying the second made-up face image on a display means;
A makeup simulation method comprising:
コンピュータに、
化粧を施されたユーザの化粧顔画像を取得する化粧顔画像取得機能と、
前記化粧顔画像から化粧情報を検出する化粧情報検出機能と、
前記ユーザに施された化粧とは独立して予め定められた複数の化粧品の色から化粧に用いたい化粧品の色を選択することをユーザから受け付ける化粧品色選択機能と、
前記化粧情報に基づいて、前記化粧を施されたユーザの化粧顔画像の色を、前記化粧品色選択機能によって選択された前記化粧品の色に変更することによって、第2の化粧顔画像を生成する化粧顔画像合成生成機能と、
前記第2の化粧顔画像を表示手段に表示させる表示機能と、
を実現させることを特徴とするプログラム。
On the computer,
A makeup face image acquisition function for acquiring a makeup face image of a user having makeup applied thereto;
a makeup information detection function for detecting makeup information from the makeup face image;
a cosmetic color selection function that accepts, from a user, a selection of a cosmetic color to be used for makeup from a plurality of cosmetic colors that are predetermined independently of the makeup applied by the user ;
a makeup face image synthesis generating function for generating a second makeup face image by changing a color of the makeup face image of the user to the color of the makeup applied based on the makeup information, to the color of the makeup face selected by the makeup color selecting function;
a display function for displaying the second makeup face image on a display means;
A program for realizing the above.
JP2020044055A 2020-03-13 2020-03-13 MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM Active JP7463774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020044055A JP7463774B2 (en) 2020-03-13 2020-03-13 MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044055A JP7463774B2 (en) 2020-03-13 2020-03-13 MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021144582A JP2021144582A (en) 2021-09-24
JP7463774B2 true JP7463774B2 (en) 2024-04-09

Family

ID=77766821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044055A Active JP7463774B2 (en) 2020-03-13 2020-03-13 MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7463774B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3130423B1 (en) * 2021-12-15 2024-01-12 Oreal COSMETIC DRAWING FILTERS IN AUGMENTED REALITY
KR20240037304A (en) * 2021-09-30 2024-03-21 로레알 Augmented reality cosmetic design filter
CN117495664B (en) * 2023-12-25 2024-04-09 成都白泽智汇科技有限公司 Intelligent auxiliary cosmetic system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149696A (en) 2013-02-01 2014-08-21 Panasonic Corp Makeup support apparatus, makeup support method and makeup support program
JP2018109842A (en) 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 Cosmetic product presentation system, cosmetic product presentation method, and cosmetic product presentation server

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149696A (en) 2013-02-01 2014-08-21 Panasonic Corp Makeup support apparatus, makeup support method and makeup support program
JP2018109842A (en) 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 Cosmetic product presentation system, cosmetic product presentation method, and cosmetic product presentation server

Also Published As

Publication number Publication date
JP2021144582A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
JP4753025B2 (en) Makeup simulation method
CN109690617B (en) System and method for digital cosmetic mirror
JP7463774B2 (en) MAKEUP SIMULATION DEVICE, MAKEUP SIMULATION METHOD, AND PROGRAM
RU2668408C2 (en) Devices, systems and methods of virtualising mirror
US10217244B2 (en) Method and data processing device for computer-assisted hair coloring guidance
KR101363691B1 (en) Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
EP1189536B1 (en) Skin imaging and analysis methods
EP2178045A1 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US20190026954A1 (en) Virtually trying cloths on realistic body model of user
JP5324031B2 (en) Beauty simulation system
TWI421781B (en) Make-up simulation system, make-up simulation method, make-up simulation method and make-up simulation program
JP5261586B2 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
JPWO2018221092A1 (en) Image processing apparatus, image processing system, image processing method, and program
US9965778B2 (en) System and method for the indication of modification region boundaries on facial images
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP2023511530A (en) color rendering
JP2011022733A (en) Device and program for simulating makeup, and counter selling support method
JP2000151985A (en) Picture processing method and recording medium
JP5029852B2 (en) Makeup simulation method
KR20210032489A (en) Simulation method of rendering of makeup products on the body area
JP2013178789A (en) Beauty simulation system
JP4487961B2 (en) Makeup simulation method
JP2010073222A (en) Makeup simulation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7463774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150