JP2019000132A - Makeup support system, makeup support method, and makeup support model - Google Patents

Makeup support system, makeup support method, and makeup support model Download PDF

Info

Publication number
JP2019000132A
JP2019000132A JP2017114722A JP2017114722A JP2019000132A JP 2019000132 A JP2019000132 A JP 2019000132A JP 2017114722 A JP2017114722 A JP 2017114722A JP 2017114722 A JP2017114722 A JP 2017114722A JP 2019000132 A JP2019000132 A JP 2019000132A
Authority
JP
Japan
Prior art keywords
makeup
image
input
normalized
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017114722A
Other languages
Japanese (ja)
Inventor
本村 秀人
Hideto Motomura
秀人 本村
川口 健一
Kenichi Kawaguchi
健一 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017114722A priority Critical patent/JP2019000132A/en
Publication of JP2019000132A publication Critical patent/JP2019000132A/en
Pending legal-status Critical Current

Links

Abstract

To provide a makeup support system, a makeup support method, and a makeup support model that facilitate proposal of makeup that satisfies a user.SOLUTION: A makeup support system 10 includes an image input part (a terminal device 30) for receiving input of an input image, which is a digital picture of a predetermined part of a living body to make up, and a generation part 40. The generation part 40 corrects a pixel value of the input image so that coordinates of a feature amount derived from the pixel value of the input image fall within a specified range in a feature amount space, and generates a normalized image indicating a reference state of the predetermined part from the input image.SELECTED DRAWING: Figure 1

Description

本発明は、一般に、メイクアップ支援システム、メイクアップ支援方法、及び、メイクアップ支援モデルに関し、特に、ユーザのメイクアップの決定の支援に用いられるメイクアップ支援システム、メイクアップ支援方法、及び、メイクアップ支援モデルに関する。   The present invention generally relates to a makeup support system, a makeup support method, and a makeup support model, and more particularly to a makeup support system, a makeup support method, and a makeup used for assisting a user in determining makeup. Up support model.

特許文献1は、肌状態測定分析情報管理システムを開示する。特許文献1の肌状態測定分析情報管理システムは、肌状態測定装置のユーザに、肌状態測定装置の測定データから自分の肌状態の分析結果を得られるサービスを提供できる。また、特許文献1の肌状態測定分析情報管理システムは、収集したデータを化粧品のメーカーや販売会社(化粧品会社)に提供できる。   Patent document 1 discloses a skin condition measurement analysis information management system. The skin condition measurement analysis information management system of Patent Literature 1 can provide a user who can obtain an analysis result of his / her skin condition from measurement data of the skin condition measurement apparatus to the user of the skin condition measurement apparatus. Further, the skin condition measurement analysis information management system of Patent Document 1 can provide collected data to a cosmetic manufacturer or sales company (cosmetic company).

特開2016−115363号公報Japanese Patent Laid-Open No. 2006-115363

特許文献1の肌状態測定分析情報管理システムによれば、多くの肌状態の測定データを収集して利用することが可能である。しかしながら、ユーザ(顧客)に適したメイクアップについては、店舗のスタッフ(販売員、美容部員)が決定する必要がある。そのため、ユーザが満足するメイクアップを提案できるか否かが、スタッフの個人の技能に大きく左右されていた。   According to the skin condition measurement analysis information management system of Patent Document 1, it is possible to collect and use a lot of skin condition measurement data. However, about the makeup suitable for the user (customer), the staff of the store (salesperson, beauty staff) needs to determine. For this reason, whether or not the user can propose satisfactory makeup depends greatly on the individual skills of the staff.

本発明の課題は、ユーザが満足するメイクアップの提案が容易になるメイクアップ支援システム、メイクアップ支援方法、及び、メイクアップ支援モデルを提案することである。   An object of the present invention is to propose a makeup support system, a makeup support method, and a makeup support model that make it easy to propose makeup that satisfies a user.

本発明に係る一態様のメイクアップ支援システムは、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける画像入力部と、生成部と、を備える。前記生成部は、前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して、前記入力画像から、前記所定部位の基準状態を示す正規化画像を生成するように構成される。   A makeup support system according to an aspect of the present invention includes an image input unit that receives an input of an input image that is a digital photograph of a predetermined part of a human body to be makeup, and a generation unit. The generation unit corrects the pixel value of the input image so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space, and the predetermined portion is obtained from the input image. The normalized image indicating the reference state is generated.

本発明に係る一態様のメイクアップ支援方法は、第1ステップと第2ステップとを含む。第1ステップでは、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける。第2ステップでは、前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して、前記入力画像から、前記所定部位の基準状態を示す正規化画像を生成する。   The makeup support method according to one aspect of the present invention includes a first step and a second step. In the first step, input of an input image that is a digital photograph of a predetermined part of a human body to be made up is received. In the second step, the pixel value of the input image is corrected so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space, and the predetermined portion is extracted from the input image. A normalized image indicating the reference state is generated.

本発明に係る一態様のメイクアップ支援モデルは、入力画像と正規化画像との関係を、複数人分の前記入力画像と前記正規化画像との関係を含む学習用データにより学習した学習済みモデルを含む。前記入力画像は、メイクアップの対象となる人体の所定部位のデジタル写真である。前記正規化画像は、前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して得られる、前記所定部位の基準状態を示す画像である。   The makeup support model of one aspect according to the present invention is a learned model in which a relationship between an input image and a normalized image is learned by learning data including a relationship between the input image and the normalized image for a plurality of persons. including. The input image is a digital photograph of a predetermined part of a human body to be made up. The normalized image is obtained by correcting the pixel value of the input image so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space. It is an image which shows a state.

本発明の態様のメイクアップ支援システム、メイクアップ支援方法、及び、メイクアップ支援モデルによれば、ユーザが満足するメイクアップの提案が容易になるという効果を奏する。   According to the makeup support system, makeup support method, and makeup support model of the aspect of the present invention, there is an effect that it is easy to propose makeup that satisfies the user.

図1は、一実施形態のメイクアップ支援システムのブロック図である。FIG. 1 is a block diagram of a makeup support system according to an embodiment. 図2A及び図2Bは、上記メイクアップ支援システムで表示される写真選択画面の概略図である。2A and 2B are schematic views of a photo selection screen displayed by the makeup support system. 図3は、上記メイクアップ支援システムで表示されるイラスト選択画面の概略図である。FIG. 3 is a schematic diagram of an illustration selection screen displayed in the makeup support system. 図4は、上記メイクアップ支援システムで表示されるメイクアップ選択画面の概略図である。FIG. 4 is a schematic diagram of a makeup selection screen displayed by the makeup support system. 図5は、上記メイクアップ支援システムで実行されるメイクアップ支援方法のフローチャートである。FIG. 5 is a flowchart of a makeup support method executed by the makeup support system.

1.実施形態
1.1 概要
本実施形態のメイクアップ支援システム10(図1参照)は、ユーザ(顧客)に適したメイクアップの提案をするために用いられる。一例としては、メイクアップ支援システム10は、店舗のスタッフ(販売員、美容部員)が、店舗に訪れたユーザに、ユーザが満足するメイクアップの提案をするために用いられ得る。ユーザが満足するメイクアップとは、例えば、ユーザが理想とする姿を実現するメイクアップ、ユーザが幸せな気分になれるメイクアップ、ユーザが自分らしくいられるメイクアップ等を想定している。
1. Embodiment 1.1 Overview The makeup support system 10 (see FIG. 1) of the present embodiment is used to propose makeup suitable for a user (customer). As an example, the makeup support system 10 may be used by a store staff (salesperson, beauty staff) to make a makeup proposal that satisfies a user to a user who has visited the store. The makeup satisfied by the user is assumed to be, for example, a makeup that realizes an ideal appearance of the user, a makeup that makes the user feel happy, a makeup that makes the user feel like herself, and the like.

メイクアップ支援システム10では、ユーザの情報として、ユーザの画像が利用される。ユーザの画像は、メイクアップの対象となる人体の所定部位のデジタル写真である。所定部位は、メイクアップの対象となる人体の全身又は一部であってよい。所定部位が人体の一部である例としては、頭部、手、足が挙げられる。また、所定部位は、例えば、頭部全体であってもよいし、頭部の一部(例えば、顔、頭)であってもよい。また、所定部位は、顔全体であってもよいし、顔の一部(例えば、目、眉、額、鼻、唇、顎、頬)であってもよい。所定部位は、ユーザが自身で予め決めている場合が多いが、店舗のスタッフとの相談によって変更され得る。なお、所定部位のデジタル写真は、所定部位のみのデジタル写真であってもよいが、通常、所定部位のみのデジタル写真を得ることは現実的ではないから、所定部位を含む人体のデジタル写真であればよい。例えば、所定部位が頭部であれば、頭部のデジタル写真は、頭部を含む部位である上半身のデジタル写真であってもよい。   In the makeup support system 10, a user image is used as user information. The user's image is a digital photograph of a predetermined part of the human body to be made up. The predetermined part may be the whole body or a part of the human body to be made up. Examples of the predetermined part being a part of the human body include the head, hands, and feet. Further, the predetermined part may be, for example, the entire head, or a part of the head (for example, face, head). Further, the predetermined part may be the entire face or a part of the face (for example, eyes, eyebrows, forehead, nose, lips, chin, cheeks). The predetermined portion is often determined by the user in advance, but can be changed by consultation with store staff. The digital photograph of the predetermined part may be a digital photograph of only the predetermined part. However, since it is usually not practical to obtain a digital photograph of only the predetermined part, it may be a digital photograph of the human body including the predetermined part. That's fine. For example, if the predetermined part is the head, the digital photograph of the head may be a digital photograph of the upper body that is a part including the head.

上述したようにメイクアップの対象となる所定部位には様々な種類がある。メイクアップにも、メイクアップを施す部位(所定部位)の種類と関連して、フェイスメイクアップ、ヘアメイクアップ、アイメイクアップ等の様々な種類がある。本実施形態では、様々な種類のメイクアップを区別はせずに、包括的にメイクアップと称する場合がある。なお、ヘアメイクアップは、髪形を変えるヘアアレンジメント、髪を切るヘアカット、髪の色を変えるヘアカラーリングなども含み得る。   As described above, there are various types of predetermined parts to be made up. There are various types of makeup, such as face makeup, hair makeup, and eye makeup, in relation to the type of site (predetermined site) to which makeup is applied. In this embodiment, various types of makeup may not be distinguished and may be collectively referred to as makeup. Hair makeup may also include hair arrangements that change hairstyles, haircuts that cut hair, hair coloring that changes hair color, and the like.

メイクアップ支援システム10は、入力されたユーザの所定部位の画像(入力画像)を利用して、所定部位のメイクアップ後の状態を示す画像(結果画像)を出力する。メイクアップ支援システム10は、結果画像を生成するにあたって、メイクアップの内容を指定するメイクアップパターンを利用する。メイクアップパターンは、メイクアップの内容を指定する情報である。例えば、メイクアップの内容は、1以上のメイクアップの工程(例えば、ベース、チーク、口、目、眉等)の情報を含み得る。メイクアップの工程の情報は、当該工程で使用するメイクアップアイテム(化粧品)の情報及び使用箇所(例えば、メイクアップアイテムを塗布する範囲)を示すパラメータで構成され得る。メイクアップアイテムは、例えば、メイクアップベース、コンシーラ、ファンデーション、パウダー、ハイライター、チーク、アイライナー、アイシャドウ、マスカラ、口紅、グロス、チークが挙げられる。このように、メイクアップパターンは、1以上のメイクアップの工程の情報を示すパラメータを含む。メイクアップパターンは、例えば、TPO(例えば、ビジネス、フォーマル、ドレス、カジュアル)や印象(例えば、色白、色黒、ナチュラル、キレイめ、やさしめ)、流行(例えば、人気女優やモデル風のメイクアップ)等の要素を考慮して、種々用意され得る。また、メイクアップパターンは、メイクアップアーティストの施したメイクアップの履歴等を参考にして生成されてもよい。そのため、ユーザが好みの結果画像を選択することは、ユーザが好みのメイクアップパターンを選択することに等しい。   The makeup support system 10 outputs an image (result image) indicating a state of the predetermined part after makeup using the input image (input image) of the predetermined part of the user. The makeup support system 10 uses a makeup pattern that specifies the contents of makeup when generating a result image. The makeup pattern is information that specifies the contents of makeup. For example, makeup content may include information on one or more makeup processes (eg, base, cheek, mouth, eyes, eyebrows, etc.). The information on the makeup process can be composed of information on the makeup item (cosmetics) used in the process and a parameter indicating a use location (for example, a range where the makeup item is applied). Examples of makeup items include makeup base, concealer, foundation, powder, highlighter, teak, eyeliner, eye shadow, mascara, lipstick, gloss, and teak. Thus, the makeup pattern includes parameters indicating information on one or more makeup processes. The makeup pattern is, for example, TPO (for example, business, formal, dress, casual), impression (for example, fair skin, dark black, natural, clean, gentle), fashion (for example, popular actress or model-like makeup) ) And the like can be prepared in various ways. The makeup pattern may be generated with reference to a history of makeup performed by a makeup artist. Therefore, the user selecting a favorite result image is equivalent to the user selecting a favorite makeup pattern.

メイクアップ支援システム10は、ユーザが最終的に選択したメイクアップパターンで指定される内容のメイクアップを施すための情報(メイクアップ情報)を出力する。メイクアップ情報は、例えば、メイクアップパターンではパラメータで表されていたメイクアップの内容を人(例えばスタッフ)が理解できる表現(文章等)に変換して得られる。店舗のスタッフは、メイクアップ支援システム10から出力されたメイクアップ情報を参考に、ユーザにメイクアップの方法及び必要な化粧品を提示する。このようにして、メイクアップ支援システム10を利用することにより、スタッフは、ユーザが満足するメイクアップの提案を容易に行える。特に、ユーザが満足するメイクアップは、ユーザ毎に異なり、ユーザ自身も明確には把握できていない場合が多い。メイクアップ支援システム10は、所定部位のメイクアップ後の状態を結果画像という具体的なイメージで提示する。このように、メイクアップ支援システム10は、メイクアップ後の状態に関してユーザ自身がいまだ自分の理想を明確に把握できていない場合に、ユーザのメイクアップ後の状態を具体的に示す画像を提案可能にする。   The makeup support system 10 outputs information (makeup information) for applying makeup having the content specified by the makeup pattern finally selected by the user. The makeup information is obtained, for example, by converting the contents of makeup represented by parameters in the makeup pattern into expressions (sentences etc.) that can be understood by a person (for example, staff). The staff of the store presents the makeup method and necessary cosmetics to the user with reference to the makeup information output from the makeup support system 10. In this way, by using the makeup support system 10, the staff can easily propose makeup that satisfies the user. In particular, the makeup satisfied by the user varies from user to user, and the user himself / herself is often not clearly grasped. The makeup support system 10 presents the state after makeup of a predetermined part as a specific image called a result image. In this way, the makeup support system 10 can propose an image that specifically shows the state after the makeup of the user when the user has not yet clearly grasped his / her ideal regarding the state after the makeup. To.

また、メイクアップ支援システム10において、結果画像は、所定部位のメイクアップ後の状態をイラストで示す。イラストを用いることで、例えば、所定部位においてユーザ自身があまり見たくない部分(例えば、ユーザがコンプレックスを感じる部分)を目立たなくさせることができる。そのため、ユーザが自身の画像(結果画像)を見る際の心理的な負担の軽減が期待できる。このような結果画像を生成するために、メイクアップ支援システム10は、イラスト化処理を行う。イラスト化処理は、例えば、画像の階調変換(階調の線形又は非線形補正)、画像の階調の平坦化(平滑化)、画像のエッジ強調などを含み得る。また、所定部位が顔を含む場合、顔のパーツ(例えば、目、眉、鼻、口)の配置を調整する処理とパーツの形状を単純化する処理が含まれ得る。イラスト化処理の具体的な内容は、イラストのタッチ(テイスト)に応じて決定される。イラストのタッチは、例えば、画像の単純化の度合い、輪郭・シェイプの強調度合い、カラー・トーンの強調度合い等の組み合わせによって様々である。   Further, in the makeup support system 10, the result image shows the state of the predetermined part after makeup with an illustration. By using the illustration, for example, a portion that the user does not want to see much at a predetermined portion (for example, a portion where the user feels a complex) can be made inconspicuous. Therefore, a reduction in psychological burden when the user views his / her own image (result image) can be expected. In order to generate such a result image, makeup support system 10 performs an illustration process. The illustration processing may include, for example, image gradation conversion (linear gradation or non-linear correction), image gradation flattening (smoothing), image edge enhancement, and the like. In addition, when the predetermined part includes a face, a process for adjusting the arrangement of facial parts (for example, eyes, eyebrows, nose, mouth) and a process for simplifying the shape of the part may be included. The specific content of the illustration processing is determined according to the touch (taste) of the illustration. Illustration touches vary depending on, for example, combinations of the degree of image simplification, the degree of contour / shape enhancement, the degree of color tone enhancement, and the like.

1.2 構成
以下に、メイクアップ支援システム10の具体的な構成について説明する。メイクアップ支援システム10は、図1に示すように、1以上のカメラ20と、1以上の端末装置30と、生成部40と、を含む。1以上の端末装置30と、生成部40とは、インターネット等のネットワーク60に接続されている。
1.2 Configuration Hereinafter, a specific configuration of makeup support system 10 will be described. As shown in FIG. 1, makeup support system 10 includes one or more cameras 20, one or more terminal devices 30, and a generation unit 40. One or more terminal devices 30 and the generation unit 40 are connected to a network 60 such as the Internet.

メイクアップ支援システム10において、結果画像の生成は、生成部40により行われる。端末装置30は、生成部40による結果画像の生成に利用される情報である、ユーザの画像(入力画像)を生成部40に与えるために用いられる。また、メイクアップ支援システム10では、結果画像の生成にメイクアップパターンが用いられるが、メイクアップパターンの決定や変更は、生成部40によっても行われる。   In the makeup support system 10, the generation of the result image is performed by the generation unit 40. The terminal device 30 is used to give a user image (input image), which is information used for generating a result image by the generation unit 40, to the generation unit 40. In the makeup support system 10, a makeup pattern is used to generate a result image. The generation unit 40 also determines or changes the makeup pattern.

カメラ20は、例えば、化粧品の販売をする店舗において使用される。カメラ20は、上述した入力画像を得るために用いられる。カメラ20は、例えば、いわゆるデジタルカメラである。本実施形態において、カメラ20により生成される入力画像は、カラー画像である。   The camera 20 is used, for example, in a store that sells cosmetics. The camera 20 is used for obtaining the input image described above. The camera 20 is a so-called digital camera, for example. In the present embodiment, the input image generated by the camera 20 is a color image.

カメラ20により撮像されたユーザ(の所定部位)の画像は、入力画像として端末装置30に送信される。本実施形態では、カメラ20は、複数の入力画像を得るために用いられる。複数の入力画像は、所定部位を撮像する方向が異なる画像である。つまり、カメラ20によって、ユーザの所定部位が様々な角度から撮像される。例えば、カメラ20を、水平面内において、ユーザの回りに360°回転させることで、ユーザの所定部位(例えば頭部)を360°の全方向から撮影する。そのため、カメラ20から端末装置30には所定部位を異なる方向から撮像して得られる複数の入力画像が出力される。例えば、頭部の正面から30°刻みで撮影することで、12枚の入力画像が得られる。   The image of the user (predetermined part) captured by the camera 20 is transmitted to the terminal device 30 as an input image. In the present embodiment, the camera 20 is used to obtain a plurality of input images. The plurality of input images are images having different directions in which the predetermined part is imaged. That is, the camera 20 images a predetermined part of the user from various angles. For example, by rotating the camera 20 360 ° around the user in a horizontal plane, a predetermined part (for example, the head) of the user is photographed from all directions of 360 °. Therefore, a plurality of input images obtained by imaging a predetermined part from different directions are output from the camera 20 to the terminal device 30. For example, twelve input images can be obtained by photographing in 30 ° increments from the front of the head.

端末装置30は、例えば、化粧品の販売をする店舗において使用される。端末装置30は、図1に示すように、入力部31と、出力部32と、通信部33と、処理部34と、を備える。端末装置30は、例えば、CPU及びメモリを主構成とするコンピュータシステムにて構成されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータシステムが端末装置30として機能する。プログラムは、ここでは端末装置30のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   The terminal device 30 is used, for example, in a store that sells cosmetics. As illustrated in FIG. 1, the terminal device 30 includes an input unit 31, an output unit 32, a communication unit 33, and a processing unit 34. For example, the terminal device 30 is configured by a computer system having a CPU and a memory as main components, and the computer system functions as the terminal device 30 when the CPU executes a program stored in the memory. The program is recorded in advance in the memory of the terminal device 30 here, but may be provided through a telecommunication line such as the Internet or recorded in a recording medium such as a memory card.

入力部31は、人による操作を受け付ける機能を有している。出力部32は、例えば液晶ディスプレイや有機EL(electroluminescence)ディスプレイのような薄型のディスプレイ装置である。ここで、入力部31は、例えば、出力部32の表示面に設置されるタッチパッドである。つまり、出力部32と入力部31とはタッチパネルを構成する。なお、入力部31は、タッチパネルに限らず、例えばキーボードやポインティングデバイス、メカニカルなスイッチ等であってもよい。   The input unit 31 has a function of accepting a human operation. The output unit 32 is a thin display device such as a liquid crystal display or an organic EL (electroluminescence) display. Here, the input unit 31 is, for example, a touch pad installed on the display surface of the output unit 32. That is, the output unit 32 and the input unit 31 constitute a touch panel. The input unit 31 is not limited to a touch panel, and may be a keyboard, a pointing device, a mechanical switch, or the like.

通信部33は、ネットワーク60に接続されることで、端末装置30と生成部40との間の通信を可能にする。   The communication unit 33 is connected to the network 60 to enable communication between the terminal device 30 and the generation unit 40.

処理部34は、出力部32に表示させる画面を作成し、出力部32を制御することにより、作成した画面を出力部32に表示させる機能を持つ。つまり、端末装置30は、専用のアプリケーションソフトをインストールし、このアプリケーションソフトを起動することにより、出力部32を制御するための処理部34としての機能を実現する。   The processing unit 34 has a function of creating a screen to be displayed on the output unit 32 and controlling the output unit 32 to display the created screen on the output unit 32. That is, the terminal device 30 implements a function as the processing unit 34 for controlling the output unit 32 by installing dedicated application software and starting the application software.

処理部34は、図2A及び図2Bに示すような写真選択画面500を表示するように構成される。写真選択画面500では、処理部34は、カメラ20から得られた複数の入力画像510を所定枚数(図2A及び図2Bでが2枚)ずつ表示する。処理部34は、写真選択画面500の表示中は、入力部31による入力画像510の選択を受け付ける。つまり、処理部34は、入力部31により、複数の入力画像510から結果画像の生成に用いる入力画像510を選択することを可能にする。これによって、ユーザは、複数の入力画像510から最も気に入った入力画像510を選択することができる。処理部34は、入力部31により選択された入力画像510を、通信部33を通じて生成部40に送信する。生成部40は、端末装置30から受け取った入力画像510を元に、結果画像を生成する処理を行う。   The processing unit 34 is configured to display a photo selection screen 500 as shown in FIGS. 2A and 2B. In the photo selection screen 500, the processing unit 34 displays a predetermined number of input images 510 obtained from the camera 20 (two images in FIGS. 2A and 2B). The processing unit 34 accepts selection of the input image 510 by the input unit 31 while the photo selection screen 500 is displayed. That is, the processing unit 34 enables the input unit 31 to select an input image 510 used for generating a result image from a plurality of input images 510. Thereby, the user can select the input image 510 that he likes most from the plurality of input images 510. The processing unit 34 transmits the input image 510 selected by the input unit 31 to the generation unit 40 through the communication unit 33. The generation unit 40 performs processing for generating a result image based on the input image 510 received from the terminal device 30.

また、処理部34は、図3に示すようなイラスト選択画面600を表示するように構成される。イラスト選択画面600は、結果画像のイラストのタッチを選択するための画面である。イラスト選択画面600では、処理部34は、図3に示すように、複数(図3では4枚)のサンプル画像610,620,630,640を表示する。複数のサンプル画像610,620,630,640は、それぞれ、異なるイラストのタッチを例示している。   The processing unit 34 is configured to display an illustration selection screen 600 as shown in FIG. The illustration selection screen 600 is a screen for selecting the illustration image touch of the result image. On the illustration selection screen 600, the processing unit 34 displays a plurality (four in FIG. 3) of sample images 610, 620, 630, and 640 as shown in FIG. The plurality of sample images 610, 620, 630, and 640 each illustrate a touch of a different illustration.

例えば、サンプル画像610,620,630,640は、画像の単純化の度合いと、輪郭・シェイプの強調度合い/カラー・トーンの強調度合いとの組み合わせが異なるイラストのタッチに対応している。サンプル画像610,620は、サンプル画像630,640よりも、画像の単純化の度合いが低い(イラストがより写真に近い)。サンプル画像610,630は、サンプル画像620,640よりも輪郭・シェイプの強調度合いが低く、カラー・トーンの強調度合いが高い。特に、サンプル画像610は、写真に近い画像であるが、隈や細かい皺等が除去されている。サンプル画像620は、似顔絵に近い画像であり、写真に比べれば輪郭が強調されている。サンプル画像630は、サンプル画像620をさらに単純化した画像である。サンプル画像640は、サンプル画像610をさらに単純化した画像である。   For example, the sample images 610, 620, 630, and 640 correspond to touches of illustrations having different combinations of the degree of simplification of the image and the degree of contour / shape enhancement / color tone enhancement. The sample images 610 and 620 are less simplified than the sample images 630 and 640 (the illustrations are closer to photographs). The sample images 610 and 630 have lower contour / shape enhancement levels and higher color / tone enhancement levels than the sample images 620 and 640. In particular, the sample image 610 is an image close to a photograph, but wrinkles and fine wrinkles are removed. The sample image 620 is an image close to a caricature, and the contour is emphasized compared to a photograph. The sample image 630 is an image obtained by further simplifying the sample image 620. The sample image 640 is an image obtained by further simplifying the sample image 610.

サンプル画像610,620,630,640は、ユーザの入力画像510を利用して生成されている。ただし、必ずしもユーザの入力画像510を利用する必要はなく、予め用意された画像であってもよい。例えば、サンプル画像は、ユーザとは別人のデジタル写真を利用して生成された画像であってもよい。   Sample images 610, 620, 630, and 640 are generated using a user input image 510. However, it is not always necessary to use the user input image 510, and an image prepared in advance may be used. For example, the sample image may be an image generated using a digital photograph that is different from the user.

処理部34は、イラスト選択画面600の表示中は、入力部31によるサンプル画像610,620,630,640の選択を受け付ける。つまり、処理部34は、入力部31により、イラストのタッチを選択することを可能にする。これによって、ユーザは、複数のサンプル画像610,620,630,640を参考にして、最も気に入ったイラストのタッチを選択することができる。処理部34は、入力部31により選択されたイラストのタッチの情報(イラストのタッチの選択の結果)を、通信部33を通じて生成部40に送信する。生成部40は、端末装置30から受け取ったイラストのタッチの情報を元に、結果画像を生成する処理を行う。   The processing unit 34 accepts selection of the sample images 610, 620, 630, and 640 by the input unit 31 while the illustration selection screen 600 is displayed. That is, the processing unit 34 enables the input unit 31 to select an illustration touch. Thereby, the user can select the touch of the most favorite illustration with reference to the plurality of sample images 610, 620, 630, and 640. The processing unit 34 transmits information on the illustration touch selected by the input unit 31 (result of selection of the illustration touch) to the generation unit 40 through the communication unit 33. The generation unit 40 performs a process of generating a result image based on the illustration touch information received from the terminal device 30.

また、処理部34は、メイクアップパターンの入力を受け付けるメイクアップ入力画面を表示するように構成される。メイクアップ入力画面では、処理部34は、例えば、予め用意された複数のメイクアップパターンを表示する。また、処理部34は、入力部31による複数のメイクアップパターンの選択を受け付ける。このようにして、処理部34は、メイクアップパターンの入力を受け付ける。また、メイクアップ画面では、処理部34は、入力部31によるメイクアップパターンの直接入力を受け付ける。この場合、処理部34は、メイクアップパターンのパラメータを個々に変更する個別変更ボタンを表示してもよいし、メイクアップパターンの2以上のパラメータを一括して変更する一括変更ボタンを表示してもよい。一括変更ボタンは、例えば、メイクアップパターンを変更する傾向(例えば、「地味め」、「華やかめ」、「幼め」、「大人め」、「やわらかめ」、「キレイめ」、「ナチュラル」等)を表示してもよい。   The processing unit 34 is configured to display a makeup input screen that accepts input of a makeup pattern. On the makeup input screen, the processing unit 34 displays, for example, a plurality of makeup patterns prepared in advance. In addition, the processing unit 34 accepts selection of a plurality of makeup patterns by the input unit 31. In this way, the processing unit 34 receives an input of a makeup pattern. On the makeup screen, the processing unit 34 accepts direct input of a makeup pattern by the input unit 31. In this case, the processing unit 34 may display an individual change button for individually changing the parameters of the makeup pattern, or may display a batch change button for collectively changing two or more parameters of the makeup pattern. Also good. The batch change button, for example, has a tendency to change the makeup pattern (for example, “smooth”, “gorgeous”, “young”, “adult”, “soft”, “beautiful”, “natural” Etc.) may be displayed.

処理部34は、入力部31により入力されたメイクアップパターンを生成部40に送信する。メイクアップ入力画面では、処理部34は、メイクアップパターンを所定数(例えば4つ)まで同時に入力可能としている。生成部40は、処理部34から受け取ったメイクアップパターンに基づいて、入力画像から結果画像を生成する。   The processing unit 34 transmits the makeup pattern input by the input unit 31 to the generation unit 40. On the makeup input screen, the processing unit 34 can simultaneously input a predetermined number (for example, four) of makeup patterns. The generation unit 40 generates a result image from the input image based on the makeup pattern received from the processing unit 34.

また、処理部34は、図4に示すようなメイクアップ選択画面700を表示するように構成される。メイクアップ選択画面700では、処理部34は、生成部40から得られた複数(図4では4枚)の結果画像710,720,730,740を表示する。処理部34は、メイクアップ選択画面700の表示中は、入力部31による結果画像710,720,730,740の選択を受け付ける。そのため、ユーザは、生成部40で生成される複数の結果画像710,720,730,740から最も気に入った結果画像を選択することができる。   The processing unit 34 is configured to display a makeup selection screen 700 as shown in FIG. On the makeup selection screen 700, the processing unit 34 displays a plurality (four in FIG. 4) of result images 710, 720, 730, and 740 obtained from the generation unit 40. While the makeup selection screen 700 is displayed, the processing unit 34 accepts selection of the result images 710, 720, 730, and 740 by the input unit 31. Therefore, the user can select a favorite result image from the plurality of result images 710, 720, 730, and 740 generated by the generation unit 40.

処理部34は、入力部31により、複数の結果画像710,720,730,740のいずれかが選択されると、選択された結果画像を元にメイクアップ情報を生成するか、選択された結果画像を元に別の結果画像を生成するかの選択を受け付ける。ここで、選択された結果画像を元に別の結果画像を生成することが選択されると、処理部34は、メイクアップ入力画面を表示する。この場合、処理部34は、メイクアップ入力画面に、選択された結果画像に対応するメイクアップパターンを予め表示してもよい。一方、選択された結果画像を元にメイクアップ情報を生成することが選択されると、処理部34は、選択された結果画像に対応するメイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成部40から取得し、出力部32に表示する。なお、ユーザが複数の結果画像710,720,730,740のいずれも選択したくない場合には、再度、メイクアップ入力画面を表示させればよい。   When any of the plurality of result images 710, 720, 730, and 740 is selected by the input unit 31, the processing unit 34 generates makeup information based on the selected result image, or the selected result The selection of whether to generate another result image based on the image is accepted. Here, when it is selected to generate another result image based on the selected result image, the processing unit 34 displays a makeup input screen. In this case, the processing unit 34 may display a makeup pattern corresponding to the selected result image in advance on the makeup input screen. On the other hand, when generation of makeup information is selected based on the selected result image, the processing unit 34 applies makeup of the content specified by the makeup pattern corresponding to the selected result image. Is obtained from the generation unit 40 and displayed on the output unit 32. If the user does not want to select any of the plurality of result images 710, 720, 730, and 740, the makeup input screen may be displayed again.

このように、端末装置30では、入力部31を用いてメイクアップパターンを入力すれば、入力されたメイクアップパターンに対応する結果画像が出力部32に表示される。そのため、ユーザの好みの結果画像(ユーザの気に入った結果画像)が得られるようにメイクアップパターンを変更できる。また、端末装置30は、メイクアップパターンに対応するメイクアップ情報を出力部32に表示できる。   As described above, in the terminal device 30, when a makeup pattern is input using the input unit 31, a result image corresponding to the input makeup pattern is displayed on the output unit 32. Therefore, the makeup pattern can be changed so that a result image desired by the user (a result image that the user likes) can be obtained. Further, the terminal device 30 can display makeup information corresponding to the makeup pattern on the output unit 32.

このように、端末装置30は、メイクアップ支援システム10において、入力画像、イラストのタッチの選択の結果、メイクアップパターンの選択の結果、及び結果画像の選択の結果についての情報を、生成部40に与えるために使用されている。つまり、端末装置30は、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける画像入力部として機能する。また、端末装置30は、メイクアップパターンの入力を受け付けるメイクアップパターン入力部として機能する。   As described above, the terminal device 30 generates information on the input image, the result of selecting the touch of the illustration, the result of selecting the makeup pattern, and the result of selecting the result image in the makeup assisting system 10. Used to give to. That is, the terminal device 30 functions as an image input unit that receives input of an input image that is a digital photograph of a predetermined part of a human body to be makeupd. In addition, the terminal device 30 functions as a makeup pattern input unit that receives input of a makeup pattern.

次に、生成部40について説明する。生成部40は、図1に示すように、通信部41と、モデル格納部42と、処理部43と、を含む。生成部40は、例えば、CPU及びメモリを主構成とするコンピュータシステムにて構成されており、CPUがメモリに格納されているプログラムを実行することにより、コンピュータシステムが生成部40として機能する。プログラムは、ここでは生成部40のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。   Next, the generation unit 40 will be described. As illustrated in FIG. 1, the generation unit 40 includes a communication unit 41, a model storage unit 42, and a processing unit 43. The generation unit 40 is configured by, for example, a computer system having a CPU and a memory as main components, and the computer system functions as the generation unit 40 when the CPU executes a program stored in the memory. Here, the program is recorded in advance in the memory of the generation unit 40, but may be provided through a telecommunication line such as the Internet or in a recording medium such as a memory card.

通信部41は、ネットワーク60に接続されることで、端末装置30との間の通信を可能にする。   The communication unit 41 is connected to the network 60 to enable communication with the terminal device 30.

モデル格納部42は、処理部43での処理に使用されるメイクアップ支援モデルを格納する。メイクアップ支援モデルは、入力画像から結果画像を生成するために用いられる学習済みモデルである。   The model storage unit 42 stores a makeup support model used for processing in the processing unit 43. The makeup support model is a learned model that is used to generate a result image from an input image.

本実施形態では、メイクアップ支援モデルは、入力画像から結果画像を生成する過程において、メイクアップパターンを適用するための所定部位の基準状態を示す画像(以下、正規化画像という)を生成する。基準状態は、一例としては、方向性が異なる複数のメイクアップを施す対象となる状態である。換言すれば、基準状態は、所定部位のメイクアップ後の状態への変換が容易に行える状態である。そのため、正規化画像から所定部位のメイクアップ後の状態の画像を生成する処理が容易になる。一例としては、基準状態は、何もメイクアップが施されていない状態、又は、方向性が異なる複数のメイクアップに共通する処理だけが行われた状態を想定している。例えば、所定部位が顔である場合には、何もメイクアップが施されていない状態は素顔に相当する。想定されるメイクアップに共通する処理だけが行われた状態は、複数のメイクアップのいずれに対しても、事前にメイクを落とす必要がない状態であるともいえる。一例としては、このような状態は、ベースのメイクアップだけが完了した状態に相当し得る。   In the present embodiment, the makeup support model generates an image (hereinafter referred to as a normalized image) indicating a reference state of a predetermined part for applying a makeup pattern in the process of generating a result image from an input image. For example, the reference state is a state to be subjected to a plurality of makeups having different directions. In other words, the reference state is a state in which the predetermined part can be easily converted to the state after makeup. This facilitates the process of generating an image of a predetermined part after makeup from the normalized image. As an example, the reference state assumes a state in which no makeup is applied, or a state in which only processing common to a plurality of makeups having different directions is performed. For example, when the predetermined part is a face, a state where no makeup is applied corresponds to a bare face. It can be said that the state where only the process common to the assumed makeup is performed is a state where it is not necessary to remove makeup in advance for any of a plurality of makeups. As an example, such a state may correspond to a state in which only base makeup has been completed.

メイクアップ支援モデルは、メイクアップパターンに基づいて、正規化画像から結果画像を生成する。結果画像は、正規化画像で表される所定部位の基準状態にメイクアップパターンで指定された内容のメイクアップを施して得られる所定部位のメイクアップ後の状態を示す。正規化画像から結果画像を生成することによって、店舗に訪れるユーザが既に所定部位に何らかのメイクアップを施していても、このような来店時のユーザの所定部位の状態が結果画像に影響することが低減され得る。   The makeup support model generates a result image from the normalized image based on the makeup pattern. The result image shows a state after the makeup of the predetermined portion obtained by applying makeup having the content specified by the makeup pattern to the reference state of the predetermined portion represented by the normalized image. By generating the result image from the normalized image, even if the user visiting the store has already applied some makeup to the predetermined part, the state of the predetermined part of the user when visiting the store may affect the result image. Can be reduced.

ここで、メイクアップパターンは、上述したように、端末装置30を利用して入力することができる。そのため、ユーザが満足するメイクアップの提案がより容易になる。   Here, the makeup pattern can be input using the terminal device 30 as described above. This makes it easier to propose makeup that satisfies the user.

本実施形態において、メイクアップ支援モデルは、正規化モデルと、派生モデルと、を含む。   In the present embodiment, the makeup support model includes a normalization model and a derived model.

正規化モデルは、ユーザの入力画像から、派生モデルに与える正規化画像を生成するために用いられる。より詳細には、正規化モデルは、入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように入力画像の画素値を補正して、入力画像から正規化画像を生成するために用いられる。   The normalized model is used to generate a normalized image to be given to the derived model from the user input image. More specifically, the normalization model normalizes from the input image by correcting the pixel value of the input image so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space. Used to generate an image.

ここにおいて、特徴量は、例えば、入力画像の画素値であってもよいし、入力画像を構成する画素にm×nのフィルタを適用して導出される値であってもよい。m、nは2以上の整数であり、mとnは同じであってもよい。特徴量空間は、入力画像から導出される特徴量毎の座標軸で規定される空間である。特徴量の数が100あれば、特徴量空間は100次元の空間となる。特徴量の座標は、入力画像から導出される各特徴量の座標軸上の値で定義される。規定範囲は、正規化画像(つまり所定部位の基準状態)によって決まり得る。本実施形態では、規定範囲は、学習用データに含まれる入力画像の特徴量の座標の分布の重心(又は中心)を含む範囲としている。これは、所定部位の状態を、メイクアップがされていない状態に近付けることを意味する。このように規定範囲を設定することで、所定部位から来店時のユーザのメイクアップの影響が低減された正規化画像が生成され得る。そのため、正規化画像から所定部位のメイクアップ後の状態の画像を生成する処理が容易になる。なお、規定範囲の大きさが小さいほど、正規化画像間において顔の形状以外の差が小さくなる。   Here, the feature amount may be, for example, a pixel value of the input image, or may be a value derived by applying an m × n filter to the pixels constituting the input image. m and n are integers of 2 or more, and m and n may be the same. The feature amount space is a space defined by coordinate axes for each feature amount derived from the input image. If the number of feature amounts is 100, the feature amount space is a 100-dimensional space. The feature amount coordinates are defined by values on the coordinate axes of the feature amounts derived from the input image. The specified range can be determined by a normalized image (that is, a reference state of a predetermined part). In the present embodiment, the specified range is a range including the center of gravity (or the center) of the distribution of the feature amount coordinates of the input image included in the learning data. This means that the state of the predetermined part is brought close to a state where makeup is not performed. By setting the specified range in this way, a normalized image in which the influence of the user's makeup at the time of visiting the store is reduced from a predetermined part can be generated. This facilitates the process of generating an image of a predetermined part after makeup from the normalized image. Note that the smaller the size of the specified range, the smaller the difference between the normalized images other than the face shape.

本実施形態において、正規化モデルは、入力画像と正規化画像との関係を、複数人分の入力画像と正規化画像との関係を含む学習用データにより学習した学習済みモデルである。このような正規化モデルを利用することにより、正規化画像の精度が向上する。   In the present embodiment, the normalized model is a learned model in which the relationship between the input image and the normalized image is learned by learning data including the relationship between the input image and the normalized image for a plurality of people. By using such a normalization model, the accuracy of the normalized image is improved.

正規化モデルを生成するためのモデルとしては、例えば、階層モデルの一種であるニューラルネットワークが用いられる。例えば、ニューラルネットワークでは、入力画像の各画素値が変数として入力層に与えられ、出力層からの変数が正規化画像の各画素値として与えられる。所定部位が顔である場合、入力画像と正規化画像とにおいては、顔の形状(顔の輪郭、顔のパーツの形状及び配置)は大きく変化しないという見込みがある。また、顔においてメイクアップにより変更され得る部分(口紅を塗る部分、チークをつける部分、アイシャドウを塗る部分等)は、顔のパーツとの関係においてある程度決まるという見込みがある。そこで、このような見込みに基づいて、ニューラルネットワークの1以上の中間層(隠れ層)の構造を設計すれば、精度の高い学習済みモデルが得られ得る。   As a model for generating a normalized model, for example, a neural network which is a kind of hierarchical model is used. For example, in a neural network, each pixel value of the input image is given as a variable to the input layer, and a variable from the output layer is given as each pixel value of the normalized image. When the predetermined part is a face, there is a possibility that the shape of the face (the contour of the face, the shape and arrangement of the facial parts) does not change significantly in the input image and the normalized image. In addition, there is a possibility that the part that can be changed by makeup on the face (part where lipstick is applied, part where cheek is applied, part where eye shadow is applied, etc.) is determined to some extent in relation to facial parts. Therefore, if a structure of one or more intermediate layers (hidden layers) of the neural network is designed based on such a prospect, a learned model with high accuracy can be obtained.

派生モデルは、正規化画像から結果画像を生成するために用いられる。また、派生モデルは、結果画像を生成するにあたって、メイクアップパターンを用いる。つまり、派生モデルは、正規化画像とメイクアップパターンとから、結果画像を生成するために用いられる。より詳細には、派生モデルは、正規化画像の画素値から特徴量を導出し、導出された特徴量の座標がメイクアップパターンに応じた値となるように正規化画像の画素値を補正して、正規化画像とメイクアップパターンとから結果画像を生成するために用いられる。   The derived model is used to generate a result image from the normalized image. In addition, the derived model uses a makeup pattern when generating a result image. That is, the derived model is used to generate a result image from the normalized image and the makeup pattern. More specifically, the derived model derives a feature value from the pixel value of the normalized image, and corrects the pixel value of the normalized image so that the coordinates of the derived feature value become values according to the makeup pattern. Thus, it is used to generate a result image from the normalized image and the makeup pattern.

本実施形態において、派生モデルは、正規化画像とメイクアップパターンとを含む入力情報と結果画像との関係を、複数人分の入力情報と結果画像との関係を含む学習用データにより学習した学習済みモデルである。このような派生モデルを利用することにより、結果画像の精度が向上する。   In the present embodiment, the derived model is a learning in which the relationship between the input information including the normalized image and the makeup pattern and the result image is learned by the learning data including the relationship between the input information and the result image for a plurality of persons. It is a finished model. By using such a derived model, the accuracy of the result image is improved.

派生モデルを生成するためのモデルとしては、例えば、階層モデルの一種であるニューラルネットワークが用いられる。例えば、ニューラルネットワークでは、正規化画像の各画素値及びメイクアップパターンの規定する数値が変数として入力層に与えられ、出力層からの変数が結果画像の各画素値として与えられる。例えば、所定部位が顔である場合、正規化画像と結果画像とにおいては、顔の形状(顔の輪郭、顔のパーツの形状及び配置)は大きく変化しないという見込みがある。また、メイクアップパターンに応じて決定されるメイクアップにより変更され得る顔の部分(口紅を塗る部分、チークをつける部分、アイシャドウを塗る部分等)は、顔のパーツとの関係においてある程度決まるという見込みがある。そこで、このような見込みに基づいて、ニューラルネットワークの1以上の中間層(隠れ層)の構造を設計すれば、精度の高い学習済みモデルが得られ得る。   As a model for generating a derived model, for example, a neural network which is a kind of hierarchical model is used. For example, in a neural network, each pixel value of a normalized image and a numerical value defined by a makeup pattern are given as variables to the input layer, and a variable from the output layer is given as each pixel value of the result image. For example, when the predetermined part is a face, there is a possibility that the shape of the face (the contour of the face, the shape and arrangement of the facial parts) does not change significantly in the normalized image and the result image. Also, facial parts that can be changed by makeup determined according to the makeup pattern (lipstick-applied parts, cheeked parts, eye-shadowed parts, etc.) are determined to some extent in relation to facial parts. There is a prospect. Therefore, if a structure of one or more intermediate layers (hidden layers) of the neural network is designed based on such a prospect, a learned model with high accuracy can be obtained.

上述したように、結果画像は、所定部位をイラストで示す画像である。そのため、ユーザが自身の結果画像を見る際の心理的な負担の軽減が期待できる。このような結果画像を得るために、正規化モデルの学習用データの正規化画像として所定部位をイラストで示す画像が用いられている。この場合、正規化モデルにより入力画像から正規化画像が生成される過程で、イラスト化処理が実行される。そのため、メイクアップ支援モデルは、正規化モデルと派生モデルとの組み合わせを、イラストのタッチ毎に有している。イラストは、デジタル写真よりも単純な特徴量が得られやすい。そのため、メイクアップ支援モデルの結果の精度の向上が期待できる。   As described above, the result image is an image showing a predetermined portion by an illustration. Therefore, it can be expected that the psychological burden when the user views his / her own result image is reduced. In order to obtain such a result image, an image showing a predetermined part as an illustration is used as a normalized image of learning data of a normalized model. In this case, the illustration process is executed in the process of generating the normalized image from the input image by the normalized model. Therefore, the makeup support model has a combination of a normalized model and a derived model for each touch of an illustration. Illustrations are easier to obtain simple features than digital photographs. Therefore, improvement in the accuracy of the result of the makeup support model can be expected.

メイクアップ支援モデルでは、入力画像から結果画像を生成する過程が、メイクアップパターンに関わらず共通して実行される項目(共通項)に関する処理(正規化画像を生成する処理)と、メイクアップパターンごとに独立して実行される項目(独自項)に関する処理(派生画像を生成する処理)とに分けられている。そして、共通項と独自項とで別々の学習済みモデル(正規化モデル及び派生モデル)が使用されている。そのため、結果画像を複数枚生成する場合には、重複する処理を省略できて、総演算量を減らすことができ、負荷の低減及び処理の高速化を図ることができる。   In the makeup support model, the process of generating a result image from an input image includes processing (a process for generating a normalized image) related to items (common items) executed in common regardless of the makeup pattern, and a makeup pattern. It is divided into processing relating to items (unique items) that are executed independently for each (processing for generating a derived image). Separately learned models (normalized model and derived model) are used for the common term and the unique term. Therefore, when a plurality of result images are generated, overlapping processes can be omitted, the total calculation amount can be reduced, and the load can be reduced and the processing speed can be increased.

処理部43は、モデル格納部42に格納されたメイクアップ支援モデルを利用して、入力画像から結果画像を生成し、端末装置30に送信するように構成される。より詳細には、処理部43は、正規化モデルを利用して、通信部41を通じて得た入力画像及びイラストのタッチの選択の結果に基づいて、正規化画像を生成する。また、処理部43は、派生モデルを利用して、正規化画像と通信部41を通じて得たメイクアップパターンの入力の結果に基づいて、結果画像を生成する。そして、処理部43は、結果画像を、通信部41を通じて、端末装置30に送信する。   The processing unit 43 is configured to generate a result image from the input image using the makeup support model stored in the model storage unit 42 and transmit the result image to the terminal device 30. More specifically, the processing unit 43 generates a normalized image based on the input image obtained through the communication unit 41 and the result of selection of an illustration touch using the normalized model. In addition, the processing unit 43 generates a result image based on the normalized image and the input result of the makeup pattern obtained through the communication unit 41 using the derived model. Then, the processing unit 43 transmits the result image to the terminal device 30 through the communication unit 41.

また、処理部43は、メイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成するように構成される。より詳細には、処理部43は、通信部41を通じて端末装置30から得たメイクアップパターンの選択の結果を元にしてメイクアップ情報を生成して、通信部41を通じて端末装置30に出力する。処理部43は、結果画像で示される所定部位のメイクアップ後の状態を実現するためのメイクアップの内容をメイクアップ情報として出力することができる。そのため、ユーザが満足するメイクアップの提案が更に容易になる。   The processing unit 43 is configured to generate makeup information for applying makeup having the content specified by the makeup pattern. More specifically, the processing unit 43 generates makeup information based on the selection result of the makeup pattern obtained from the terminal device 30 through the communication unit 41, and outputs the makeup information to the terminal device 30 through the communication unit 41. The processing unit 43 can output the makeup content for realizing the state after the makeup of the predetermined part shown in the result image as makeup information. This makes it easier to propose makeup that satisfies the user.

1.3 動作
次に、本実施形態のメイクアップ支援システム10の動作の一例について図5を参照して簡単に説明する。下記の例は、店舗にいるスタッフが、メイクアップ支援システム10を利用して、店舗に訪れたユーザに、当該ユーザが満足するメイクアップの提案を行う手順を示す。
1.3 Operation Next, an example of the operation of the makeup support system 10 of the present embodiment will be briefly described with reference to FIG. The following example shows a procedure in which a staff member in a store uses the makeup support system 10 to make a makeup proposal that the user is satisfied with to a user who has visited the store.

まず、店舗において、カメラ20を用いてユーザの撮影が行われる(S100)。カメラ20で得られたユーザの複数のデジタル写真は、入力画像として端末装置30に入力される。   First, in the store, the user is photographed using the camera 20 (S100). A plurality of digital photographs of the user obtained by the camera 20 are input to the terminal device 30 as input images.

端末装置30は、図2A及び図2Bに示すような写真選択画面500を表示し、入力画像510の選択を受け付ける(S110)。これによって、ユーザは、複数のデジタル写真(入力画像510)から最も気に入ったデジタル写真を選択することができる。端末装置30は、最終的にユーザによって選択された入力画像を生成部40に送信する。   The terminal device 30 displays a photo selection screen 500 as shown in FIGS. 2A and 2B and accepts selection of the input image 510 (S110). Accordingly, the user can select the most favorite digital photograph from a plurality of digital photographs (input image 510). The terminal device 30 transmits the input image finally selected by the user to the generation unit 40.

端末装置30は、図3に示すようなイラスト選択画面600を表示し、イラストのタッチの選択を受け付ける(S120)。これによって、ユーザは、複数のサンプル画像610,620,630,640を参考にして、最も気に入ったイラストのタッチを選択することができる。端末装置30は、ユーザにより選択されたイラストのタッチの情報(イラストのタッチの選択の結果)を、生成部40に送信する。   The terminal device 30 displays an illustration selection screen 600 as shown in FIG. 3 and accepts selection of an illustration touch (S120). Thereby, the user can select the touch of the most favorite illustration with reference to the plurality of sample images 610, 620, 630, and 640. The terminal device 30 transmits information on the touch of the illustration selected by the user (result of selection of the illustration touch) to the generation unit 40.

ステップS110及びS120によって、端末装置30から生成部40に、入力画像及びイラストのタッチの選択の結果が与えられる。その結果、生成部40は、正規化モデルを利用して、端末装置30から得た入力画像及びイラストのタッチの選択の結果に基づいて、正規化画像を生成する(S130)。   Through steps S110 and S120, the terminal device 30 gives the generation unit 40 the result of selecting the input image and the illustration touch. As a result, the generation unit 40 uses the normalization model to generate a normalization image based on the input image obtained from the terminal device 30 and the result of selection of the illustration touch (S130).

端末装置30は、メイクアップ入力画面を表示し、メイクアップパターンの入力を受け付ける(S140)。メイクアップ入力画面は、ユーザがメイクアップパターンを入力するというよりは、店舗のスタッフがユーザの意見を聞きながら、メイクアップパターンを入力することを想定して用意されている。メイクアップ入力画面で入力されたメイクアップパターンは、端末装置30から生成部40に送信される。   The terminal device 30 displays a makeup input screen and accepts input of a makeup pattern (S140). The makeup input screen is prepared assuming that the store staff listens to the user's opinions and inputs the makeup pattern, rather than the user inputting the makeup pattern. The makeup pattern input on the makeup input screen is transmitted from the terminal device 30 to the generation unit 40.

生成部40は、派生モデルを利用して、正規化モデルを利用して生成された正規化画像と、端末装置30から得たメイクアップパターンに基づいて、結果画像を生成する(S150)。そして、生成部40は、生成した結果画像を、端末装置30に送信する。   The generation unit 40 uses the derived model to generate a result image based on the normalized image generated using the normalization model and the makeup pattern obtained from the terminal device 30 (S150). Then, the generation unit 40 transmits the generated result image to the terminal device 30.

端末装置30は、図4に示すようなメイクアップ選択画面700を表示する(S160)。メイクアップ選択画面700は、端末装置30が生成部40から受け取った結果画像710,720,730,740を表示する。端末装置30は、メイクアップ選択画面700の表示中は、入力部31による結果画像710,720,730,740の選択を受け付ける。そのため、ユーザは、複数の結果画像710,720,730,740から最も気に入った結果画像を選択することができる。   The terminal device 30 displays a makeup selection screen 700 as shown in FIG. 4 (S160). The makeup selection screen 700 displays result images 710, 720, 730, and 740 received by the terminal device 30 from the generation unit 40. While the makeup selection screen 700 is displayed, the terminal device 30 accepts selection of the result images 710, 720, 730, and 740 by the input unit 31. Therefore, the user can select a favorite result image from the plurality of result images 710, 720, 730, and 740.

端末装置30は、入力部31により、複数の結果画像710,720,730,740のいずれかが選択されると、メイクアップパターンを変更するかどうかの選択を受け付ける(S170)。   When any one of the plurality of result images 710, 720, 730, and 740 is selected by the input unit 31, the terminal device 30 receives a selection as to whether or not to change the makeup pattern (S170).

メイクアップパターンの変更が選択された場合(S170:Yes)、端末装置30は、メイクアップ入力画面を表示し、メイクアップパターンの入力を受け付ける(S140)。この場合、端末装置30は、メイクアップ入力画面に、選択された結果画像に対応するメイクアップパターンを予め表示する。店舗のスタッフは、ユーザの意見を聞きながら、選択された結果画像に対応するメイクアップパターンを変更して、ユーザの好みに合うように新たなメイクアップパターンを作成する。   When the change of the makeup pattern is selected (S170: Yes), the terminal device 30 displays the makeup input screen and accepts the input of the makeup pattern (S140). In this case, the terminal device 30 displays in advance a makeup pattern corresponding to the selected result image on the makeup input screen. The store staff changes the makeup pattern corresponding to the selected result image while listening to the user's opinion, and creates a new makeup pattern to suit the user's preference.

メイクアップパターンの変更が選択されなかった場合(S170:No)、端末装置30は、選択された結果画像に対応するメイクアップパターンを生成部40に送信する。生成部40は、端末装置30から受け取ったメイクアップパターンの選択の結果を元にしてメイクアップ情報を生成して、端末装置30に出力する(S180)。そして、端末装置30は、生成部40から受け取ったメイクアップ情報を、表示する(S190)。店舗のスタッフは、端末装置30に表示されたメイクアップ情報を参考に、ユーザにメイクアップの方法及び必要な化粧品を提示する。   When the change of the makeup pattern is not selected (S170: No), the terminal device 30 transmits a makeup pattern corresponding to the selected result image to the generation unit 40. The generation unit 40 generates makeup information based on the makeup pattern selection result received from the terminal device 30 and outputs the makeup information to the terminal device 30 (S180). And the terminal device 30 displays the makeup information received from the production | generation part 40 (S190). The staff of the store presents the makeup method and necessary cosmetics to the user with reference to the makeup information displayed on the terminal device 30.

このようにして、メイクアップ支援システム10を利用することにより、スタッフは、ユーザが満足するメイクアップの提案を容易に行える。   In this way, by using the makeup support system 10, the staff can easily propose makeup that satisfies the user.

なお、図5のフローチャートは、あくまでも、上記実施形態のメイクアップ支援システム10の動作の一例であって、ステップS100〜S190の順番を図5の順番に限定する趣旨ではない。例えば、ステップS110とステップS120とは入れ替わってもよい。また、ステップS130は、ステップS140とステップS150との間にあってもよい。この場合、ステップS140が一回でも実行された後は、ステップS130は省略され得る。   Note that the flowchart of FIG. 5 is merely an example of the operation of the makeup support system 10 of the above-described embodiment, and does not intend to limit the order of steps S100 to S190 to the order of FIG. For example, step S110 and step S120 may be interchanged. Moreover, step S130 may be between step S140 and step S150. In this case, step S130 can be omitted after step S140 is executed once.

1.4 まとめ
以上述べたメイクアップ支援システム10では、生成部40は、入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように入力画像の画素値を補正して、入力画像から、所定部位の基準状態を示す正規化画像を生成する。換言すれば、メイクアップ支援システム10は、次のようなメイクアップ支援方法を実行する。メイクアップ支援方法は、第1ステップと第2ステップとを含む。第1ステップでは、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像510の入力を受け付ける。第2ステップでは、入力画像510の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように入力画像510の画素値を補正して、入力画像510から、所定部位の基準状態を示す正規化画像を生成する。
1.4 Summary In the makeup support system 10 described above, the generation unit 40 sets the pixel value of the input image so that the coordinates of the feature amount derived from the pixel value of the input image are within the specified range in the feature amount space. It correct | amends and produces | generates the normalization image which shows the reference | standard state of a predetermined part from an input image. In other words, the makeup support system 10 executes the following makeup support method. The makeup support method includes a first step and a second step. In the first step, an input of an input image 510 that is a digital photograph of a predetermined part of a human body to be made up is received. In the second step, the pixel value of the input image 510 is corrected so that the coordinates of the feature amount derived from the pixel value of the input image 510 are within the specified range in the feature amount space. A normalized image indicating the reference state is generated.

正規化画像を利用することにより、所定部位のメイクアップ後の状態を示す画像(例えば、結果画像710〜740)を生成することが可能になる。つまり、ユーザに、所定部位のメイクアップ後の状態を画像で示すことが可能になる。したがって、本実施形態のメイクアップ支援システム10及びメイクアップ支援方法では、ユーザが満足するメイクアップの提案が容易になる。   By using the normalized image, it is possible to generate an image (for example, result images 710 to 740) indicating a state after makeup of a predetermined part. That is, it is possible to show the user the state after the makeup of the predetermined part with an image. Therefore, in the makeup support system 10 and the makeup support method of the present embodiment, it is easy to propose makeup that satisfies the user.

メイクアップ支援システム10は、メイクアップ支援モデルを利用して、ユーザが満足するメイクアップの提案の支援を行う。メイクアップ支援モデルは、入力画像510と正規化画像との関係を、複数人分の入力画像510と正規化画像との関係を含む学習用データにより学習した学習済みモデルを含む。入力画像510は、メイクアップの対象となる人体の所定部位のデジタル写真である。正規化画像は、入力画像510の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように入力画像510の画素値を補正して得られる、所定部位の基準状態を示す画像である。そのため、メイクアップ支援モデルによれば、ユーザが満足するメイクアップの提案が容易になる。   The makeup support system 10 uses the makeup support model to support makeup proposals that satisfy the user. The makeup support model includes a learned model in which the relationship between the input image 510 and the normalized image is learned by learning data including the relationship between the input image 510 and the normalized image for a plurality of people. The input image 510 is a digital photograph of a predetermined part of the human body that is the subject of makeup. The normalized image has a reference state of a predetermined part obtained by correcting the pixel value of the input image 510 so that the coordinates of the feature amount derived from the pixel value of the input image 510 are within the specified range in the feature amount space. It is the image shown. Therefore, according to the makeup support model, it is easy to propose makeup that satisfies the user.

更に、以上述べたメイクアップ支援システム10では、生成部40は、メイクアップの内容を指定するメイクアップパターンに基づいて、正規化画像から、結果画像710〜740を生成する。結果画像は、正規化画像で表される所定部位の基準状態にメイクアップパターンで指定された内容のメイクアップを施して得られる所定部位のメイクアップ後の状態を示す。換言すれば、メイクアップ支援方法は、更に、第3ステップを含む。第3ステップでは、メイクアップの内容を指定するメイクアップパターンに基づいて、正規化画像から、結果画像710〜740を生成する。結果画像は、正規化画像で表される所定部位の基準状態にメイクアップパターンで指定された内容のメイクアップを施して得られる所定部位のメイクアップ後の状態を示す。   Furthermore, in the makeup support system 10 described above, the generation unit 40 generates the result images 710 to 740 from the normalized image based on the makeup pattern that specifies the makeup content. The result image shows a state after the makeup of the predetermined portion obtained by applying makeup having the content specified by the makeup pattern to the reference state of the predetermined portion represented by the normalized image. In other words, the makeup support method further includes a third step. In the third step, result images 710 to 740 are generated from the normalized image based on the makeup pattern that specifies the makeup contents. The result image shows a state after the makeup of the predetermined portion obtained by applying makeup having the content specified by the makeup pattern to the reference state of the predetermined portion represented by the normalized image.

結果画像710〜740は、所定部位のメイクアップ後の状態を示すから、ユーザは、結果画像を参考にして、自身の理想を具体的なイメージとしてスタッフに伝えることが可能になる。したがって、メイクアップ支援システム10及びメイクアップ支援方法では、ユーザが満足するメイクアップの提案が更に容易になる。   Since the result images 710 to 740 show the state after the makeup of the predetermined portion, the user can convey his / her ideal as a specific image to the staff with reference to the result image. Therefore, the makeup support system 10 and the makeup support method make it easier to propose makeup that satisfies the user.

また、以上述べたメイクアップ支援システム10では、生成部40は、メイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成する。換言すれば、メイクアップ支援方法は、更に、第4ステップを含む。第4ステップでは、メイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成する。   In the makeup support system 10 described above, the generation unit 40 generates makeup information for applying makeup having the content specified by the makeup pattern. In other words, the makeup support method further includes a fourth step. In the fourth step, makeup information for applying makeup having the contents specified by the makeup pattern is generated.

メイクアップ情報を参考にして、スタッフはユーザにメイクアップの方法及び必要な化粧品を提示することができる。そのため、ユーザが満足するメイクアップの提案をより容易に行える。   With reference to the makeup information, the staff can present a makeup method and necessary cosmetics to the user. Therefore, it is possible to more easily propose makeup that satisfies the user.

2.変形例
本発明の実施形態は、上記実施形態に限定されない。上記実施形態は、本発明の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
2. The embodiment of the present invention is not limited to the above embodiment. The above embodiment can be variously modified according to the design or the like as long as the object of the present invention can be achieved. Below, the modification of the said embodiment is enumerated.

例えば、メイクアップ支援システム10は、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける画像入力部(端末装置30)を有していればよく、入力画像それ自体を生成する機能を有していなくてもよい。つまり、メイクアップ支援システム10はカメラ20を含んでいなくてもよい。例えば、ユーザが自身のお気に入りのデジタル写真を持って来店した場合には、このデジタル写真を入力画像として用いてもよい。   For example, makeup support system 10 only needs to have an image input unit (terminal device 30) that accepts input of an input image that is a digital photograph of a predetermined part of a human body to be made up, and the input image itself. It is not necessary to have the function of generating That is, makeup support system 10 may not include camera 20. For example, when a user brings his / her favorite digital photograph to the store, the digital photograph may be used as an input image.

また、上記実施形態では、生成部40は、メイクアップパターン入力部(端末装置30)に入力されたメイクアップパターンに基づいて、正規化画像から結果画像を生成する。しかし、生成部40は、正規化画像に基づいて決定されたメイクアップパターンに基づいて、正規化画像から結果画像を生成するように構成されていてもよい。つまり、生成部40は、正規化画像の画素値から導出される特徴量に基づいて、メイクアップパターンを自動的に決定してもよい。メイクアップパターンの自動的な決定には、学習済みモデルを利用することができる。例えば、ユーザの正規化画像と当該ユーザが満足する傾向があるメイクアップパターンとの関係を利用して、学習済みモデルを生成すればよい。   Moreover, in the said embodiment, the production | generation part 40 produces | generates a result image from a normalization image based on the makeup pattern input into the makeup pattern input part (terminal device 30). However, the generation unit 40 may be configured to generate a result image from the normalized image based on the makeup pattern determined based on the normalized image. That is, the generation unit 40 may automatically determine a makeup pattern based on the feature amount derived from the pixel value of the normalized image. A learned model can be used to automatically determine the makeup pattern. For example, a learned model may be generated using a relationship between a user's normalized image and a makeup pattern that tends to satisfy the user.

また、上記実施形態では、処理部34は、写真選択画面500を表示する。しかしながら、使用する入力画像が予め決定されている場合には、処理部34は、写真選択画面500を必ずしも表示する必要はない。   In the above embodiment, the processing unit 34 displays the photo selection screen 500. However, when the input image to be used is determined in advance, the processing unit 34 does not necessarily display the photo selection screen 500.

また、上記実施形態では、処理部34は、イラスト選択画面600を表示する。しかしながら、結果画像は、所定部位のメイクアップ後の状態をイラストではなく写真で表示してもよい。このようにイラスト化処理を行わない場合(所定部位のメイクアップ後の状態をイラストで表示しない場合)には、処理部34は、イラスト選択画面600を表示する必要はない。   In the above embodiment, the processing unit 34 displays the illustration selection screen 600. However, the result image may display the state after makeup of the predetermined part as a photograph instead of an illustration. As described above, when the illustration process is not performed (when the state after the makeup of the predetermined part is not displayed as an illustration), the processing unit 34 does not need to display the illustration selection screen 600.

また、上記実施形態では、処理部34は、正規化画像を出力部32に表示していないが、正規化画像を出力部32に表示してもよい。   In the above embodiment, the processing unit 34 does not display the normalized image on the output unit 32, but may display the normalized image on the output unit 32.

なお、正規化画像は、結果画像の精度を向上させるために、様々なユーザの入力画像のばらつきを所定範囲内に収めることを目的として生成される画像である。そのため、基準状態は、必ずしも、上記実施形態のように、複数のメイクアップのいずれに対しても、事前にメイクアップを落とす必要がない状態である必要はない。つまり、基準状態は、どのように正規化画像を選択するかによって変わるから、予め選択されたメイクアップ後の状態であってもよい。   Note that the normalized image is an image generated for the purpose of keeping variations in input images of various users within a predetermined range in order to improve the accuracy of the result image. Therefore, the reference state does not necessarily need to be a state where it is not necessary to remove makeup in advance for any of a plurality of makeups as in the above embodiment. That is, since the reference state changes depending on how the normalized image is selected, it may be a pre-selected state after makeup.

また、上記実施形態では、正規化モデルの学習用データの正規化画像として所定部位をイラストで示す画像が用いられている。これにより、正規化モデルにより入力画像から正規化画像が生成される過程で、イラスト化処理が実行される。これに代えて、正規化モデルの学習用データの入力画像として所定部位をイラストで示す画像が用いられてもよい。この場合、端末装置30と生成部40とのいずれかが、入力画像のイラスト化処理を実行すればよい。あるいは、派生モデルの学習用データの結果画像として所定部位をイラストで示す画像が用いられてもよい。これにより、派生モデルにより正規化画像から結果画像が生成される過程で、イラスト化処理が実行される。これに代えて、派生モデルの学習用データの正規化画像として所定部位をイラストで示す画像が用いられてもよい。この場合、生成部40が、正規化画像のイラスト化処理を実行すればよい。あるいは、生成部40が、結果画像のイラスト化処理を実行してもよい。   Further, in the above-described embodiment, an image showing a predetermined part as an illustration is used as a normalized image of learning data of a normalized model. As a result, the illustration process is executed in the process in which the normalized image is generated from the input image by the normalized model. Instead of this, an image showing a predetermined portion as an illustration may be used as an input image of learning data for the normalized model. In this case, either the terminal device 30 or the generation unit 40 may execute the illustration processing of the input image. Or the image which shows a predetermined part with an illustration may be used as a result image of the data for learning of a derived model. Thus, the illustration process is executed in the process of generating the result image from the normalized image by the derived model. Instead of this, an image showing a predetermined part as an illustration may be used as a normalized image of the learning data for the derived model. In this case, the generation unit 40 may perform illustration processing of the normalized image. Alternatively, the generation unit 40 may execute a result image illustration process.

上記実施形態において、メイクアップパターンは、1以上のメイクアップの工程の情報を示すパラメータを含んでいるが、更に、追加のパラメータとして所定部位の周囲の状況を示すパラメータを含んでいてもよい。所定部位が顔である場合、所定部位の周囲の状況は、例えば、服装や髪形が挙げられる。人の顔の印象は、服装や髪形によっても左右されるからである。服装の情報は、例えば、服装自体の情報であってもよいし、服装の印象を示す情報であってもよい。服装の印象を示す情報は、例えば、服装の色合いや、格式(フォーマル、カジュアル等)、用途等を示す情報を含み得る。同様に、髪形の情報は、例えば、髪形自体の情報であってもよいし、髪形の印象を示す情報であってもよい。髪型の印象を示す情報は、例えば、髪の色合いや、パターン(ロング、ショート、ボブ等)等を示す情報を含み得る。   In the above embodiment, the makeup pattern includes a parameter indicating information on one or more makeup processes, but may further include a parameter indicating a situation around a predetermined portion as an additional parameter. When the predetermined part is a face, examples of the situation around the predetermined part include clothes and a hairstyle. This is because the impression of a person's face depends on clothes and hairstyle. The information on clothes may be, for example, information on clothes themselves or information indicating an impression of clothes. The information indicating the impression of clothes may include, for example, information indicating the color of clothes, style (formal, casual, etc.), usage, and the like. Similarly, the hairstyle information may be, for example, information on the hairstyle itself, or information indicating an impression of the hairstyle. The information indicating the impression of the hairstyle can include, for example, information indicating the color of the hair, the pattern (long, short, bob, etc.) and the like.

また、上記実施形態では、処理部34は、派生モデルを利用して、結果画像を生成する。しかしながら、結果画像は、端末装置30で正規化画像を加工することで生成されてもよい。これは、スタッフが、ユーザの要望を聞きながら、端末装置30を利用して、正規化画像を加工して結果画像を生成する場合を想定している。この場合、端末装置30には、入力部31の入力に応じて、正規化画像を加工して結果画像を生成する機能が必要になる。このような機能は、周知の画像処理プログラムにより実現可能である。   In the above embodiment, the processing unit 34 generates a result image using the derived model. However, the result image may be generated by processing the normalized image with the terminal device 30. This assumes a case where the staff uses the terminal device 30 to process the normalized image and generate a result image while listening to the user's request. In this case, the terminal device 30 is required to have a function of processing a normalized image and generating a result image according to an input from the input unit 31. Such a function can be realized by a known image processing program.

つまり、メイクアップ支援モデルは、派生モデルを必ずしも含んでいなくてもよく、少なくとも、正規化モデルを含んでいればよい。上記実施形態では、正規化モデルは、イラストのタッチ毎に用意されているが、さらに、カテゴリに応じて複数の正規化モデルが用意されていてもよい。カテゴリの例としては、メイクアップに使用する化粧品の価格帯、性別、年齢、メイクアップの用途(例えば、時期、場所、目的)が挙げられる。この点は、派生モデルにおいても同様である。   In other words, the makeup support model does not necessarily include the derived model, and may include at least the normalization model. In the above embodiment, the normalization model is prepared for each touch of the illustration, but a plurality of normalization models may be prepared according to the category. Examples of categories include the price range, gender, age, and makeup application (eg, time, place, purpose) of cosmetics used for makeup. This also applies to the derived model.

なお、上記実施形態では、メイクアップ支援システム10は、1以上のカメラ20と、1以上の端末装置30と、生成部40とで構成されている。1以上の端末装置30と、生成部40とは、複数のコンピュータを含むコンピュータシステムで構成されている。しかしながら、メイクアップ支援システム10は、少なくとも、端末装置30と生成部40とを単一のコンピュータで実現したものであってもよい。つまり、メイクアップ支援システム10は、例えば、CPU及びメモリを主構成とするコンピュータシステムにて構成されてもよい。そして、CPUがメモリに格納されているプログラムを実行することにより、コンピュータシステムがメイクアップ支援システム10として機能すればよい。プログラムは、ここではメイクアップ支援システム10のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の記録媒体に記録されて提供されてもよい。なお、コンピュータシステムは、単一のコンピュータにより構成されてもよいし、複数のコンピュータで構成されるシステムであってもよい。例えば、メイクアップ支援システム10は、複数のコンピュータの少なくとも1以上によって構成されてもよい。複数のコンピュータがメイクアップ支援システム10の機能を分担してもよい。また、メイクアップ支援システム10の少なくとも一部の機能は、例えば、クラウド(クラウドコンピューティング)によって実現されてもよい。ここで使用されるコンピュータは、専用の装置である必要はなく、スマートフォン、タブレットコンピュータ、パーソナルコンピュータなどであってもよい。そのため、メイクアップ支援システム10は、一か所に設置されたコンピュータで実現されてもよいし、複数箇所に分散して配置された複数のコンピュータによっても実現され得る。   In the above embodiment, makeup support system 10 includes one or more cameras 20, one or more terminal devices 30, and a generation unit 40. The one or more terminal devices 30 and the generation unit 40 are configured by a computer system including a plurality of computers. However, makeup support system 10 may at least realize terminal device 30 and generation unit 40 with a single computer. That is, makeup support system 10 may be configured by a computer system having a CPU and a memory as main components, for example. Then, the computer system may function as the makeup support system 10 by the CPU executing the program stored in the memory. Here, the program is recorded in advance in the memory of the makeup support system 10, but may be provided through a telecommunication line such as the Internet or in a recording medium such as a memory card. The computer system may be configured by a single computer or a system configured by a plurality of computers. For example, makeup support system 10 may be configured by at least one of a plurality of computers. A plurality of computers may share the functions of the makeup support system 10. Moreover, at least a part of the functions of the makeup support system 10 may be realized by, for example, cloud (cloud computing). The computer used here does not need to be a dedicated device, and may be a smartphone, a tablet computer, a personal computer, or the like. Therefore, makeup support system 10 may be realized by a computer installed in one place, or may be realized by a plurality of computers arranged in a plurality of locations.

上記実施形態のメイクアップ支援システム10は、メイクアップ後の状態に関してユーザ自身がいまだ自分の理想を明確に把握できていない場合に、ユーザのメイクアップ後の状態を具体的に示す画像を提案可能にする。そのため、ユーザは、画像を参考にして、自身の理想を具体的なイメージとしてスタッフに伝えることが可能になる。つまり、メイクアップ支援システム10は、ユーザの理想をスタッフに伝達する補助をしている。このようなユーザの理想を具体的なイメージとして提案するという技術的思想は、様々な場面に適用することができる。例えば、服のコーディネート、建物のリフォーム、商品のオーダーといった場面に適用できる。商品としては、衣服、家具(例えば化粧棚)、車等が挙げられる。ここで、建物のリフォームの場合について簡単に説明する。この場合、入力画像としては、リフォームの対象となる場所(例えば部屋)のデジタル写真が使用される。正規化画像では、基準状態として、リフォームの対象となる場所から家具や壁紙等が除去された状態が用いられる。そして、結果画像としては、リフォームの対象となる場所のリフォーム後の状態を示す画像が用いられる。リフォーム後の状態は、例えば、ユーザが所望する家具や壁紙等が設置された状態である。この場合でも、学習済みモデルを利用することができる。そして、入力画像から結果画像を生成する過程が、リフォームの内容に関わらず共通して実行される項目(共通項)に関する処理と、リフォームの内容ごとに独立して実行される項目(独自項)に関する処理とに分けられてもよい。共通項としては、基本的な部屋や家具の形状が挙げられる。独自項としては、材質(木製や金属製)、色、柄が挙げられる。上記実施形態と同様に、共通項と独自項とで別々の学習済みモデルを利用してもよい。   The makeup support system 10 of the above embodiment can propose an image that specifically shows the state after the makeup of the user when the user has not yet clearly grasped his / her ideal regarding the state after the makeup. To. Therefore, the user can convey his / her ideal as a specific image to the staff with reference to the image. That is, the makeup support system 10 assists in transmitting the user's ideals to the staff. The technical idea of proposing such a user's ideal as a specific image can be applied to various scenes. For example, it can be applied to scenes such as clothing coordination, building remodeling, and product ordering. Examples of the product include clothes, furniture (for example, a makeup shelf), a car, and the like. Here, the case of renovation of a building will be briefly described. In this case, as an input image, a digital photograph of a place (for example, a room) to be reformed is used. In the normalized image, a state in which furniture, wallpaper, or the like is removed from a location to be reformed is used as the reference state. And as a result image, the image which shows the state after reform of the place used as the object of remodeling is used. The state after the renovation is a state in which, for example, furniture or wallpaper desired by the user is installed. Even in this case, the learned model can be used. The process of generating the result image from the input image is a process related to an item (common item) that is executed in common regardless of the content of the reform, and an item that is executed independently for each content of the reform (original item) It may be divided into processing related to. Common items include basic room and furniture shapes. Independent items include materials (wood and metal), colors, and patterns. Similar to the above embodiment, different learned models may be used for the common term and the unique term.

3.態様
以上述べた実施形態及び変形例から明らかなように、第1の態様のメイクアップ支援システム(10)は、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける画像入力部(端末装置30)と、生成部(40)と、を備える。前記生成部(40)は、前記入力画像(510)の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像(510)の画素値を補正して、前記入力画像(510)から正規化画像を生成するように構成される。前記正規化画像は、前記所定部位の基準状態を示す。第1の態様によれば、ユーザが満足するメイクアップの提案が容易になる。
3. Aspect As is apparent from the embodiment and the modification described above, the makeup support system (10) of the first aspect accepts input of an input image that is a digital photograph of a predetermined part of a human body to be makeupd. An image input unit (terminal device 30) and a generation unit (40) are provided. The generation unit (40) corrects the pixel value of the input image (510) so that the coordinates of the feature amount derived from the pixel value of the input image (510) are within a specified range in the feature amount space. , Configured to generate a normalized image from the input image (510). The normalized image shows a reference state of the predetermined part. According to the 1st aspect, the proposal of the makeup which a user is satisfied becomes easy.

第2の態様のメイクアップ支援システム(10)は、第1の態様との組み合わせにより実現され得る。第2の態様では、前記生成部(40)は、前記入力画像(510)からの前記正規化画像の生成を、正規化モデルを利用して行うように構成される。前記正規化モデルは、前記入力画像(510)と前記正規化画像との関係を、複数人分の前記入力画像(510)と前記正規化画像との関係を含む学習用データにより学習した学習済みモデルである。第2の態様によれば、正規化画像の精度が向上する。   The makeup support system (10) of the second aspect can be realized by a combination with the first aspect. In the second aspect, the generation unit (40) is configured to generate the normalized image from the input image (510) using a normalized model. The normalized model is learned by learning the relationship between the input image (510) and the normalized image by learning data including the relationship between the input image (510) and the normalized image for a plurality of people. It is a model. According to the second aspect, the accuracy of the normalized image is improved.

第3の態様のメイクアップ支援システム(10)は、第2の態様との組み合わせにより実現され得る。第3の態様では、前記規定範囲は、前記学習用データに含まれる前記入力画像(510)の特徴量の座標の分布の重心を含む範囲である。第3の態様によれば、正規化画像から所定部位のメイクアップ後の状態の画像を生成する処理が容易になる。   The makeup support system (10) of the third aspect can be realized by a combination with the second aspect. In the third aspect, the specified range is a range including the centroid of the feature value coordinate distribution of the input image (510) included in the learning data. According to the 3rd aspect, the process which produces | generates the image of the state after the makeup of a predetermined part from a normalization image becomes easy.

第4の態様のメイクアップ支援システム(10)は、第1〜第3の態様のいずれか一つとの組み合わせにより実現され得る。第4の態様では、前記基準状態は、方向性が異なる複数のメイクアップを施す対象となる状態である。第4の態様によれば、正規化画像から所定部位のメイクアップ後の状態の画像を生成する処理が容易になる。   The makeup support system (10) of the fourth aspect can be realized by a combination with any one of the first to third aspects. In the fourth aspect, the reference state is a state to be subjected to a plurality of makeups having different directions. According to the 4th aspect, the process which produces | generates the image of the state after the makeup of a predetermined part from a normalization image becomes easy.

第5の態様のメイクアップ支援システム(10)は、第4の態様との組み合わせにより実現され得る。第5の態様では、前記基準状態は、前記複数のメイクアップのいずれに対しても、事前にメイクを落とす必要がない状態である。第5の態様によれば、正規化画像から所定部位のメイクアップ後の状態の画像を生成する処理が容易になる。   The makeup support system (10) of the fifth aspect can be realized in combination with the fourth aspect. In the fifth aspect, the reference state is a state in which it is not necessary to remove makeup in advance for any of the plurality of makeups. According to the 5th aspect, the process which produces | generates the image of the state after the makeup of a predetermined part from a normalization image becomes easy.

第6の態様のメイクアップ支援システム(10)は、第1〜第5の態様のいずれか一つとの組み合わせにより実現され得る。第6の態様では、前記生成部(40)は、メイクアップの内容を指定するメイクアップパターンに基づいて、前記正規化画像から、結果画像(710〜740)を生成するように構成される。前記結果画像は、前記正規化画像で表される前記所定部位の基準状態に前記メイクアップパターンで指定された内容のメイクアップを施して得られる前記所定部位のメイクアップ後の状態を示す。第6の態様によれば、ユーザが満足するメイクアップの提案がより容易になる。   The makeup support system (10) of the sixth aspect can be realized by a combination with any one of the first to fifth aspects. In the sixth aspect, the generation unit (40) is configured to generate a result image (710-740) from the normalized image based on a makeup pattern that specifies the contents of makeup. The result image shows a state after the makeup of the predetermined portion obtained by applying makeup of the content specified by the makeup pattern to the reference state of the predetermined portion represented by the normalized image. According to the 6th aspect, the proposal of the makeup which a user is satisfied becomes easier.

第7の態様のメイクアップ支援システム(10)は、第6の態様との組み合わせにより実現され得る。第7の態様では、前記メイクアップ支援システム(10)は、前記メイクアップパターンの入力を受け付けるメイクアップパターン入力部(端末装置30)を更に備える。前記生成部(40)は、前記メイクアップパターン入力部(端末装置30)に入力された前記メイクアップパターンに基づいて、前記正規化画像から前記結果画像(710〜740)を生成するように構成される。第7の態様によれば、ユーザが満足するメイクアップの提案がより容易になる。   The makeup support system (10) of the seventh aspect can be realized in combination with the sixth aspect. In a seventh aspect, the makeup support system (10) further includes a makeup pattern input unit (terminal device 30) that receives input of the makeup pattern. The generation unit (40) is configured to generate the result image (710-740) from the normalized image based on the makeup pattern input to the makeup pattern input unit (terminal device 30). Is done. According to the 7th aspect, the proposal of the makeup which a user is satisfied becomes easier.

第8の態様のメイクアップ支援システム(10)は、第6の態様との組み合わせにより実現され得る。第8の態様では、前記生成部(40)は、前記正規化画像に基づいて決定されたメイクアップパターンに基づいて、前記正規化画像から前記結果画像(710〜740)を生成するように構成される。第8の態様によれば、ユーザが満足するメイクアップの提案がより容易になる。   The makeup support system (10) of the eighth aspect can be realized by a combination with the sixth aspect. In the eighth aspect, the generation unit (40) is configured to generate the result image (710-740) from the normalized image based on a makeup pattern determined based on the normalized image. Is done. According to the eighth aspect, it is easier to propose makeup that satisfies the user.

第9の態様のメイクアップ支援システム(10)は、第6〜第8の態様のいずれか一つとの組み合わせにより実現され得る。第9の態様では、前記生成部(40)は、前記正規化画像からの前記結果画像(710〜740)の生成を、派生モデルを利用して行うように構成される。前記派生モデルは、前記正規化画像と前記メイクアップパターンとを含む入力情報と前記結果画像(710〜740)との関係を、複数人分の前記入力情報と前記結果画像(710〜740)との関係を含む学習用データにより学習した学習済みモデルである。第9の態様によれば、結果画像の精度が向上する。   The makeup support system (10) of the ninth aspect can be realized by a combination with any one of the sixth to eighth aspects. In the ninth aspect, the generation unit (40) is configured to generate the result image (710-740) from the normalized image using a derived model. The derived model has a relationship between the input information including the normalized image and the makeup pattern and the result image (710 to 740), and the input information and the result image (710 to 740) for a plurality of persons. This is a learned model learned by learning data including the relationship. According to the ninth aspect, the accuracy of the result image is improved.

第10の態様のメイクアップ支援システム(10)は、第6〜第9の態様のいずれか一つとの組み合わせにより実現され得る。第10の態様では、前記生成部(40)は、前記メイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成するように構成される。第10の態様によれば、ユーザの適したメイクアップの提案が更に容易になる。   The makeup support system (10) of the tenth aspect can be realized by a combination with any one of the sixth to ninth aspects. In the tenth aspect, the generation unit (40) is configured to generate makeup information for applying makeup having the content specified by the makeup pattern. According to the 10th aspect, the proposal of the makeup suitable for a user becomes still easier.

第11の態様のメイクアップ支援システム(10)は、第6〜第10の態様のいずれか一つとの組み合わせにより実現され得る。第11の態様では、前記結果画像は、前記所定部位のメイクアップ後の状態をイラストで示す画像である。第11の態様によれば、ユーザが自身の結果画像を見る際の心理的な負担の軽減が期待できる。   The makeup support system (10) of the eleventh aspect can be realized by a combination with any one of the sixth to tenth aspects. In the eleventh aspect, the result image is an image showing the state after the makeup of the predetermined portion as an illustration. According to the eleventh aspect, a reduction in psychological burden when the user views his / her own result image can be expected.

第12の態様のメイクアップ支援方法は、第1ステップと第2ステップとを含む。前記第1ステップでは、メイクアップの対象となる人体の所定部位のデジタル写真である入力画像(510)の入力を受け付ける。第2ステップでは、前記入力画像(510)の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像(510)の画素値を補正して、前記入力画像(510)から正規化画像を生成するように構成される。前記正規化画像は、前記所定部位の基準状態を示す。第12の態様によれば、ユーザが満足するメイクアップの提案が容易になる。   The makeup support method according to the twelfth aspect includes a first step and a second step. In the first step, an input of an input image (510) which is a digital photograph of a predetermined part of a human body to be made up is received. In the second step, the pixel value of the input image (510) is corrected so that the coordinates of the feature amount derived from the pixel value of the input image (510) are within a specified range in the feature amount space, and the input It is configured to generate a normalized image from the image (510). The normalized image shows a reference state of the predetermined part. According to the twelfth aspect, it is easy to propose makeup that satisfies the user.

第13の態様のメイクアップ支援モデルは、入力画像(510)と正規化画像との関係を、複数人分の前記入力画像(510)と前記正規化画像との関係を含む学習用データにより学習した学習済みモデルを含む。前記入力画像(510)は、メイクアップの対象となる人体の所定部位のデジタル写真である。前記正規化画像は、前記入力画像(510)の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像(510)の画素値を補正して得られる、前記所定部位の基準状態を示す画像である。第13の態様によれば、ユーザが満足するメイクアップの提案が容易になる。   The makeup support model of the thirteenth aspect learns the relationship between the input image (510) and the normalized image by learning data including the relationship between the input image (510) and the normalized image for a plurality of people. Trained models. The input image (510) is a digital photograph of a predetermined part of the human body to be made up. The normalized image is obtained by correcting the pixel value of the input image (510) so that the coordinates of the feature amount derived from the pixel value of the input image (510) are within a specified range in the feature amount space. FIG. 6 is an image showing a reference state of the predetermined part. According to the thirteenth aspect, it is easy to propose makeup that satisfies the user.

10 メイクアップ支援システム
30 端末装置(画像入力部、メイクアップパターン入力部)
40 生成部
10 makeup support system 30 terminal device (image input unit, makeup pattern input unit)
40 generator

Claims (13)

メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける画像入力部と、
前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して、前記入力画像から、前記所定部位の基準状態を示す正規化画像を生成する生成部と、
を備える、
メイクアップ支援システム。
An image input unit for receiving input of an input image which is a digital photograph of a predetermined part of a human body to be made up;
The pixel value of the input image is corrected so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space, and the reference state of the predetermined part is indicated from the input image A generator for generating a normalized image;
Comprising
Makeup support system.
前記生成部は、前記入力画像からの前記正規化画像の生成を、正規化モデルを利用して行うように構成され、
前記正規化モデルは、前記入力画像と前記正規化画像との関係を、複数人分の前記入力画像と前記正規化画像との関係を含む学習用データにより学習した学習済みモデルである、
請求項1のメイクアップ支援システム。
The generation unit is configured to generate the normalized image from the input image using a normalized model,
The normalized model is a learned model in which the relationship between the input image and the normalized image is learned by learning data including the relationship between the input image and the normalized image for a plurality of people.
The makeup support system according to claim 1.
前記規定範囲は、前記学習用データに含まれる前記入力画像の特徴量の座標の分布の重心を含む範囲である、
請求項2のメイクアップ支援システム。
The specified range is a range including a centroid of a feature value coordinate distribution of the input image included in the learning data.
The makeup support system according to claim 2.
前記基準状態は、方向性が異なる複数のメイクアップを施す対象となる状態である、
請求項1〜3のいずれか一つのメイクアップ支援システム。
The reference state is a state to be subjected to a plurality of makeup having different directions.
The makeup support system according to any one of claims 1 to 3.
前記基準状態は、前記複数のメイクアップのいずれに対しても、事前にメイクアップを落とす必要がない状態である、
請求項4のメイクアップ支援システム。
The reference state is a state where it is not necessary to remove makeup in advance for any of the plurality of makeups.
The makeup support system according to claim 4.
前記生成部は、メイクアップの内容を指定するメイクアップパターンに基づいて、前記正規化画像から、前記正規化画像で表される前記所定部位の基準状態に前記メイクアップパターンで指定された内容のメイクアップを施して得られる前記所定部位のメイクアップ後の状態を示す結果画像を生成するように構成される、
請求項1〜5のいずれか一つのメイクアップ支援システム。
Based on a makeup pattern that specifies makeup content, the generation unit generates a content specified by the makeup pattern from the normalized image to a reference state of the predetermined portion represented by the normalized image. Configured to generate a result image indicating a state after makeup of the predetermined portion obtained by applying makeup;
The makeup support system according to any one of claims 1 to 5.
前記メイクアップパターンの入力を受け付けるメイクアップパターン入力部を更に備え、
前記生成部は、前記メイクアップパターン入力部に入力された前記メイクアップパターンに基づいて、前記正規化画像から前記結果画像を生成するように構成される、
請求項6のメイクアップ支援システム。
A makeup pattern input unit for receiving input of the makeup pattern;
The generation unit is configured to generate the result image from the normalized image based on the makeup pattern input to the makeup pattern input unit.
The makeup support system according to claim 6.
前記生成部は、前記正規化画像に基づいて決定されたメイクアップパターンに基づいて、前記正規化画像から前記結果画像を生成するように構成される、
請求項6のメイクアップ支援システム。
The generating unit is configured to generate the result image from the normalized image based on a makeup pattern determined based on the normalized image.
The makeup support system according to claim 6.
前記生成部は、前記正規化画像からの前記結果画像の生成を、派生モデルを利用して行うように構成され、
前記派生モデルは、前記正規化画像と前記メイクアップパターンとを含む入力情報と前記結果画像との関係を、複数人分の前記入力情報と前記結果画像との関係を含む学習用データにより学習した学習済みモデルである、
請求項6〜8のいずれか一つのメイクアップ支援システム。
The generating unit is configured to generate the result image from the normalized image using a derived model,
The derived model has learned the relationship between the input information including the normalized image and the makeup pattern and the result image by learning data including the relationship between the input information and the result image for a plurality of persons. A trained model,
The makeup support system according to any one of claims 6 to 8.
前記生成部は、前記メイクアップパターンで指定される内容のメイクアップを施すためのメイクアップ情報を生成するように構成される、
請求項6〜9のいずれか一つのメイクアップ支援システム。
The generating unit is configured to generate makeup information for applying makeup of the content specified by the makeup pattern;
The makeup support system according to any one of claims 6 to 9.
前記結果画像は、前記所定部位のメイクアップ後の状態をイラストで示す画像である、
請求項6〜10のいずれか一つのメイクアップ支援システム。
The result image is an image showing the state after makeup of the predetermined part in an illustration,
The makeup support system according to any one of claims 6 to 10.
メイクアップの対象となる人体の所定部位のデジタル写真である入力画像の入力を受け付ける第1ステップと、
前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して、前記入力画像から、前記所定部位の基準状態を示す正規化画像を生成する第2ステップと、
を含む、
メイクアップ支援方法。
A first step of accepting input of an input image that is a digital photograph of a predetermined part of a human body to be made up;
The pixel value of the input image is corrected so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space, and the reference state of the predetermined part is indicated from the input image A second step of generating a normalized image;
including,
Makeup support method.
入力画像と正規化画像との関係を、複数人分の前記入力画像と前記正規化画像との関係を含む学習用データにより学習した学習済みモデルを含み、
前記入力画像は、メイクアップの対象となる人体の所定部位のデジタル写真であり、
前記正規化画像は、前記入力画像の画素値から導出される特徴量の座標が特徴量空間における規定範囲内に収まるように前記入力画像の画素値を補正して得られる、前記所定部位の基準状態を示す画像である、
メイクアップ支援モデル。
Including a learned model in which a relationship between an input image and a normalized image is learned by learning data including a relationship between the input image and the normalized image for a plurality of persons;
The input image is a digital photograph of a predetermined part of a human body to be made up,
The normalized image is obtained by correcting the pixel value of the input image so that the coordinates of the feature amount derived from the pixel value of the input image are within a specified range in the feature amount space. It is an image showing the state,
Makeup support model.
JP2017114722A 2017-06-09 2017-06-09 Makeup support system, makeup support method, and makeup support model Pending JP2019000132A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017114722A JP2019000132A (en) 2017-06-09 2017-06-09 Makeup support system, makeup support method, and makeup support model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017114722A JP2019000132A (en) 2017-06-09 2017-06-09 Makeup support system, makeup support method, and makeup support model

Publications (1)

Publication Number Publication Date
JP2019000132A true JP2019000132A (en) 2019-01-10

Family

ID=65004655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017114722A Pending JP2019000132A (en) 2017-06-09 2017-06-09 Makeup support system, makeup support method, and makeup support model

Country Status (1)

Country Link
JP (1) JP2019000132A (en)

Similar Documents

Publication Publication Date Title
JP3408524B2 (en) Makeup advice providing method and makeup advice providing program
US10783672B2 (en) Makeup part generating apparatus, makeup part utilizing apparatus, makeup part generating method, makeup part utilizing method, non-transitory computer-readable recording medium storing makeup part generating program, and non-transitory computer-readable recording medium storing makeup part utilizing program
US8550818B2 (en) System and method for providing and modifying a personalized face chart
US10799010B2 (en) Makeup application assist device and makeup application assist method
US8498456B2 (en) Method and system for applying cosmetic and/or accessorial enhancements to digital images
US20070052726A1 (en) Method and system for likeness reconstruction
US20100142755A1 (en) Method, System, and Computer Program Product for Providing Cosmetic Application Instructions Using Arc Lines
TW200828043A (en) Terminal try-on simulation system and operating and applying method thereof
JP2008003724A (en) Cosmetics simulation system
JP2006079619A (en) Method and device for generating synthesized image of at least one fringe of lash
TW200946167A (en) Makeup method, makeup simulation device, and makeup simulation program
US11776187B2 (en) Digital makeup artist
JP2019034112A (en) Mirror device and program
US20230222720A1 (en) Digital makeup artist
US8523570B2 (en) System and method for providing a face chart
JP2013178789A (en) Beauty simulation system
JP2019000132A (en) Makeup support system, makeup support method, and makeup support model
KR20020017151A (en) Method to provide total coordination service on Internet
Jeamsinkul MasqueArray: Automatic makeup selector/applicator
US20240135424A1 (en) Information processing apparatus, information processing method, and program
JP2001283085A (en) Beauty system
CN115393924A (en) Method, device, equipment and medium for selecting products based on facial texture information
EP4260172A1 (en) Digital makeup artist
JP2022073335A (en) Makeup simulation system, makeup simulation method and program
JP2022033021A (en) Ornaments or daily necessaries worn on face or periphery of face, method for evaluating matching degree of makeup or hairstyle to face of user, system for evaluating the matching degree, recommendation system and design system of spectacles