JP2023121082A - Information providing device, information providing method, and information providing program - Google Patents

Information providing device, information providing method, and information providing program Download PDF

Info

Publication number
JP2023121082A
JP2023121082A JP2022024327A JP2022024327A JP2023121082A JP 2023121082 A JP2023121082 A JP 2023121082A JP 2022024327 A JP2022024327 A JP 2022024327A JP 2022024327 A JP2022024327 A JP 2022024327A JP 2023121082 A JP2023121082 A JP 2023121082A
Authority
JP
Japan
Prior art keywords
information
makeup
compatibility
degree
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022024327A
Other languages
Japanese (ja)
Inventor
彩馨 久保内
Ayaka Kubouchi
桂壽 李
Keiju Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2022024327A priority Critical patent/JP2023121082A/en
Publication of JP2023121082A publication Critical patent/JP2023121082A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information providing device capable of providing a user with useful information, an information providing method, and an information providing program.SOLUTION: In an information processing system in which an information providing device 10, a user terminal, and a makeup information database are communicably connected, the information providing device comprises: an acquisition unit 13a which acquires mode information on a hair mode capable of being provided by a user; a calculation unit 13b which calculates a congeniality degree indicating a congeniality degree of combinations of hair modes and makeup on the basis of the acquired mode information; a generation unit 13c which generates provision information provided to the user who has selected a hair mode on the basis of the calculated congeniality degree; and a learning unit 13e which learns a machine learning model so as to output congeniality degrees of combinations of hair modes and makeup made by object persons having hair of the mode. The information providing device calculates a congeniality degree using the machine learning model.SELECTED DRAWING: Figure 2

Description

本発明は、情報提供装置、情報提供方法および情報提供プログラムに関する。 The present invention relates to an information providing device, an information providing method, and an information providing program.

従来、コーディネートを支援する技術が知られている。例えば、ファッションの組合せに関するルールに基づいて、コーディネートを生成する技術が知られている。 Conventionally, techniques for assisting coordination are known. For example, there is known a technique for generating coordination based on rules regarding fashion combinations.

特開2013-235528号公報JP 2013-235528 A

しかしながら、上述した従来技術は、顧客(適宜、「利用者」)に対して有益な情報を提供する上で改善の余地がある。例えば、従来技術では、利用者に対して利用者が提供可能な髪型に合わせたメイク用品を提案することが難しい。 However, the conventional techniques described above have room for improvement in providing useful information to customers ("users" as appropriate). For example, with the conventional technology, it is difficult to propose makeup products that match the hairstyle that the user can provide to the user.

本願は、上記に鑑みてなされたものであって、利用者に対して有益な情報を提供可能にする情報提供装置、情報提供方法および情報提供プログラムを提供することを目的とする。 The present application has been made in view of the above, and aims to provide an information providing apparatus, an information providing method, and an information providing program capable of providing useful information to users.

上述した課題を解決し、目的を達成するために、本発明に係る情報提供装置は、利用者が提供可能な髪の態様に関する態様情報を取得する取得部と、前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出部と、前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an information providing apparatus according to the present invention includes an acquisition unit that acquires mode information related to a hair mode that can be provided by a user; characterized by comprising a calculation unit that calculates a degree of compatibility indicating the degree of compatibility between the aspect and the makeup, and a generation unit that generates provision information to be provided to the user based on the degree of compatibility. and

また、本発明に係る情報提供方法は、情報提供装置によって実行される情報提供方法であって、利用者が提供可能な髪の態様に関する態様情報を取得する取得工程と、前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出工程と、前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成工程と、を含むことを特徴とする。 Further, an information providing method according to the present invention is an information providing method executed by an information providing device, comprising: an acquiring step of acquiring mode information related to a hair mode that can be provided by a user; , a calculation step of calculating a degree of compatibility indicating the degree of compatibility between the aspect and the makeup, and a generating step of generating provision information to be provided to the user based on the degree of compatibility. characterized by

また、本発明に係る情報提供プログラムは、利用者が提供可能な髪の態様に関する態様情報を取得する取得手順と、前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出手順と、前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成手順と、をコンピュータに実行させることを特徴とする。 Further, the information providing program according to the present invention includes an acquisition procedure for acquiring aspect information relating to a hair aspect that can be provided by a user, and indicating the degree of compatibility between the aspect and makeup based on the aspect information. A computer is caused to execute a calculation procedure for calculating the degree of compatibility and a generation procedure for generating provided information to be provided to the user based on the degree of compatibility.

本発明では、利用者に対して有益な情報を提供することができる。 In the present invention, useful information can be provided to users.

図1は、実施形態に係る情報提供システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of an information providing system according to an embodiment. 図2は、実施形態に係る情報提供装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the information providing device according to the embodiment. 図3は、実施形態に係る態様情報記憶部の一例を示す図である。3 is a diagram illustrating an example of a mode information storage unit according to the embodiment; FIG. 図4は、実施形態に係る化粧情報記憶部の一例を示す図である。4 is a diagram illustrating an example of a makeup information storage unit according to the embodiment; FIG. 図5は、実施形態に係る相性度情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a compatibility information storage unit according to the embodiment; 図6は、実施形態に係る提供情報記憶部の一例を示す図である。6 is a diagram illustrating an example of a provided information storage unit according to the embodiment; FIG. 図7は、実施形態に係る情報提供処理の具体例を示す図である。FIG. 7 is a diagram illustrating a specific example of information provision processing according to the embodiment. 図8は、実施形態に係る情報提供処理の流れの一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the flow of information provision processing according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a hardware configuration;

以下に、本願に係る情報提供装置、情報提供方法および情報提供プログラムを実施するための形態(以下、実施形態)について図面を参照しつつ詳細に説明する。なお、この実施形態により、本願に係る情報提供装置、情報提供方法および情報提供プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DETAILED DESCRIPTION OF THE INVENTION Modes (hereinafter referred to as embodiments) for implementing an information providing apparatus, an information providing method, and an information providing program according to the present application will be described in detail below with reference to the drawings. Note that the information providing device, the information providing method, and the information providing program according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔実施形態〕
以下に、実施形態に係る情報提供システム100の構成、情報提供装置10の構成、情報提供処理の具体例、情報提供処理の流れを順に説明し、最後に本実施形態の効果を説明する。
[Embodiment]
The configuration of the information providing system 100, the configuration of the information providing apparatus 10, the specific example of the information providing process, and the flow of the information providing process according to the embodiment will be described below, and finally the effects of the present embodiment will be described.

〔1.情報提供システム100の構成〕
図1を用いて、本実施形態に係る情報提供システム(適宜、本システム)100の処理を説明する。図1は、実施形態に係る情報提供システム100の構成例を示す図である。以下では、本システム100の構成例、本システム100の処理、本システム100で応用するセットマッチング技術、本システム100の効果の順に説明する。
[1. Configuration of Information Providing System 100]
The processing of the information providing system (this system as appropriate) 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of an information providing system 100 according to an embodiment. In the following, a configuration example of the system 100, processing of the system 100, set matching technology applied in the system 100, and effects of the system 100 will be described in this order.

(1-1.情報提供システム100の構成例)
図1に示した情報提供システム100は、情報提供装置10と、利用者端末20と、化粧情報データベース30とを有する。ここで、情報提供装置10と、利用者端末20と、化粧情報データベース30とは、図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、本システム100には、複数台の情報提供装置10、複数台の利用者端末20、または複数台の化粧情報データベース30が含まれてもよい。
(1-1. Configuration example of information providing system 100)
The information providing system 100 shown in FIG. 1 includes an information providing device 10, a user terminal 20, and a makeup information database 30. Here, the information providing device 10, the user terminal 20, and the makeup information database 30 are communicably connected by wire or wirelessly via a predetermined communication network (not shown). The system 100 may include a plurality of information providing apparatuses 10, a plurality of user terminals 20, or a plurality of makeup information databases 30. FIG.

(1-1-1.情報提供装置10)
情報提供装置10は、利用者端末20との間、化粧情報データベース30との間でデータの送受信を行う装置であり、例えば、サーバ装置やクラウドシステム等により実現される。図1の例では、情報提供装置10がサーバ装置により実現される場合を示す。
(1-1-1. Information providing device 10)
The information providing device 10 is a device that transmits and receives data to and from the user terminal 20 and the makeup information database 30, and is realized by, for example, a server device or a cloud system. The example of FIG. 1 shows a case where the information providing device 10 is realized by a server device.

(1-1-2.利用者端末20)
利用者端末20は、化粧(適宜、「メイク」)等に関するウェブページを閲覧したり、ウェブ上で化粧品(適宜、「コスメ」)等のインターネットショッピング等を行ったりする利用者Uによって使用されるデバイス(コンピュータ)である。利用者端末20は、利用者Uによる操作を受け付ける。なお、利用者端末20は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1の例では、利用者端末20がスマートフォンにより実現される場合を示す。
(1-1-2. User terminal 20)
The user terminal 20 is used by a user U who browses web pages related to makeup (as appropriate, “makeup”) and the like, and conducts Internet shopping for cosmetics (as appropriate, “cosmetics”) and the like on the web. It is a device (computer). The user terminal 20 receives an operation by the user U. The user terminal 20 is realized by, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. The example of FIG. 1 shows a case where the user terminal 20 is realized by a smart phone.

以下では、利用者端末20を利用者Uと表記する場合がある。すなわち、利用者Uを利用者端末20と読み替えることもできる。また、利用者Uを複数の顧客を表わすものとして使用することがある。 The user terminal 20 may be referred to as a user U hereinafter. That is, the user U can be read as the user terminal 20 as well. User U may also be used to represent multiple customers.

(1-1-3.化粧情報データベース30)
化粧情報データベース30は、後述する化粧に関する化粧情報を記憶する記憶装置である。
(1-1-3. Makeup information database 30)
The makeup information database 30 is a storage device that stores makeup information related to makeup, which will be described later.

(1-2.情報提供システム100の処理)
以下に、情報提供システム100の処理として、ステップS1~S6の処理について説明する。なお、下記のステップS1~S6は、異なる順序で実行することもできる。また、下記のステップS1~S6のうち、省略される処理があってもよい。
(1-2. Processing of information providing system 100)
The processing of steps S1 to S6 will be described below as the processing of the information providing system 100. FIG. It should be noted that steps S1 to S6 below may be performed in a different order. Also, some of steps S1 to S6 below may be omitted.

(1-2-1.ステップS1の処理)
本システム100において、第1に、情報提供装置10は、美容室のスタイリスト等である利用者Uの利用者端末20を介して、利用者Uが美容室で提供可能であるヘアスタイルに関する態様情報を取得する(ステップS1)。ここで、態様情報とは、髪型、髪色等のヘアスタイル全般を示す髪の態様に関する情報である。また、態様情報は、かつらやウィッグ等を用いた髪の態様に関する情報であってもよく、特に限定されない。また、図1の例では、情報提供装置10は、利用者端末20から態様情報を取得しているが、図示しない端末装置・データベースから態様情報を取得してもよい。すなわち、利用者端末20に表示された複数の髪の態様を示す画像のうち、利用者Uが選択した画像に含まれる髪の態様に対応付けられた態様情報を取得することもできる。
(1-2-1. Processing of step S1)
In this system 100, firstly, the information providing device 10 provides, through the user terminal 20 of the user U, who is a stylist of the beauty salon, style information on hairstyles that can be provided by the user U at the beauty salon. (step S1). Here, the style information is information relating to the style of the hair indicating the overall hairstyle such as hairstyle and hair color. Also, the mode information may be information about the mode of hair using a wig, wig, or the like, and is not particularly limited. In addition, in the example of FIG. 1, the information providing apparatus 10 acquires the mode information from the user terminal 20, but the mode information may be acquired from a terminal device/database (not shown). That is, it is also possible to acquire mode information associated with the mode of hair included in the image selected by the user U from among the images showing the modes of hair displayed on the user terminal 20 .

このとき、情報提供装置10は、利用者端末20から利用者Uの利用者情報を取得してもよい。ここで、利用者情報とは、利用者Uの性別、年齢、年代、職業、年収、居住地、既婚・未婚の別、子供の有無、利用者Uの動画像、利用者Uが興味関心を有するカテゴリ等の利用者属性や、利用者Uのウェブサイト上での検索履歴・閲覧履歴、インターネットショッピングでの購買履歴、利用者Uの位置情報等の行動履歴を含む情報である。さらに、利用者情報は、利用者端末20の画面情報、利用者Uの生体情報等を含む情報であってもよく、特に限定されない。 At this time, the information providing device 10 may acquire the user information of the user U from the user terminal 20 . Here, the user information includes gender, age, generation, occupation, annual income, place of residence, marital status, presence or absence of children, user U's moving image, user U's interests, and user U's interests. This information includes user attributes such as categories owned, user U's search history/browsing history on the website, purchase history in Internet shopping, and action history such as user U's location information. Furthermore, the user information may be information including screen information of the user terminal 20, biometric information of the user U, etc., and is not particularly limited.

(1-2-2.ステップS2の処理)
本システム100において、第2に、情報提供装置10は、化粧情報データベース30を参照し、化粧情報を取得する(ステップS2)。ここで、化粧情報とは、化粧(メイク)に関する情報であって、ファンデーション・口紅・アイシャドウ等のコスメ、メイクに用いる器具や道具の他、メイクの手順等の情報であるが、特に限定されない。また、図1の例では、情報提供装置10は、化粧情報データベース30から化粧情報を取得しているが、図示しない端末装置・データベースから化粧情報を取得してもよい。
(1-2-2. Processing of step S2)
In this system 100, secondly, the information providing device 10 refers to the makeup information database 30 and acquires makeup information (step S2). Here, the makeup information is information about makeup (makeup), including cosmetics such as foundation, lipstick, and eyeshadow, tools and tools used for makeup, and makeup procedures, etc., but is not particularly limited. . In the example of FIG. 1, the information providing apparatus 10 acquires makeup information from the makeup information database 30, but may acquire makeup information from a terminal device/database (not shown).

(1-2-3.ステップS3の処理)
本システム100において、第3に、情報提供装置10は、取得した態様情報および化粧情報から、利用者Uが提供可能な髪の態様と化粧との相性の度合を示す相性度を算出する(ステップS3)。例えば、情報提供装置10は、機械学習モデルを用いて、髪の態様と化粧との組合せの相性の度合に応じて0~1の数値をとるように相性度を算出する。このとき、情報提供装置10は、利用者Uが提供可能な髪の態様に関わる態様情報と化粧情報とを入力された際に、当該髪の態様と化粧との組合せごとの相性度を出力するように学習されたDNN(Deep Neural Network)等の機械学習モデルを用いて、相性度を算出する。また、情報提供装置10は、ルールベースで相性度を算出してもよい。
(1-2-3. Processing of step S3)
In the present system 100, thirdly, the information providing apparatus 10 calculates a degree of compatibility indicating the degree of compatibility between the hair style and makeup that can be provided by the user U from the acquired style information and makeup information (step S3). For example, the information providing device 10 uses a machine learning model to calculate the degree of compatibility so as to take a numerical value of 0 to 1 according to the degree of compatibility of the combination of the appearance of hair and makeup. At this time, the information providing device 10 outputs the degree of compatibility for each combination of the hair style and makeup when style information and makeup information related to the style of hair that can be provided by the user U are input. A degree of compatibility is calculated using a machine learning model such as a DNN (Deep Neural Network) learned as described above. Further, the information providing apparatus 10 may calculate the degree of compatibility based on rules.

上述したステップS3について、具体的な例を用いて説明する。例えば、情報提供装置10は、以下に示すように利用者Uが化粧を施す対象者の属性ごとに学習した機械学習モデル、対象者の状況(シチュエーション)ごとに学習した機械学習モデルを用いて、相性度を算出することができる。 Step S3 mentioned above is demonstrated using a specific example. For example, the information providing device 10 uses a machine learning model learned for each attribute of a target person to whom the user U applies makeup and a machine learning model learned for each target person situation (situation) as follows, Affinity can be calculated.

情報提供装置10は、対象者の趣味趣向等を含む属性ごとに学習した機械学習モデルを用いて、相性度を算出することができる。例えば、情報提供装置10は、「XX(例:芸能人、年代、ドラマの種別(アクション等))」が好きな対象者用の機械学習モデルを複数生成し、それぞれの機械学習モデルについて正解データを生成する。具体的には、「XX」が好きな対象者が「いいね」をしている画像や、「XX」と合致する画像を正解データとして機械学習モデルを学習させる。その結果、情報提供装置10は、利用者Uが指定した対象者の属性とマッチする機械学習モデルを選択し、選択した機械学習モデルにより相性度が高いとされたメイクを提案することができる。 The information providing apparatus 10 can calculate the degree of compatibility using a machine learning model learned for each attribute including the interests and preferences of the target person. For example, the information providing apparatus 10 generates a plurality of machine learning models for a target person who likes "XX (eg, entertainer, age, type of drama (action, etc.))", and correct data for each machine learning model. Generate. Specifically, a machine learning model is learned by using an image in which a subject who likes "XX" is "Like" or an image matching "XX" as correct data. As a result, the information providing device 10 can select a machine learning model that matches the attributes of the target person specified by the user U, and can propose makeup that is highly compatible with the selected machine learning model.

また、情報提供装置10は、対象者のシチュエーションごとに学習した機械学習モデルを用いて、相性度を算出することができる。例えば、情報提供装置10は、新卒、転職、中途採用等の企業採用のシチュエーションごとに、書類選考に通った対象者の就職活動時の画像を正解データとして、新卒、転職、中途採用のそれぞれについて機械学習モデルを生成する。そのため、情報提供装置10は、例えば、利用者Uが「転職」を選んだ場合は、転職時の書類選考に応じたメイクを提案することができる。 In addition, the information providing apparatus 10 can calculate the degree of compatibility using a machine learning model learned for each situation of the subject. For example, the information providing device 10 uses the image of the target person who passed the document screening at the time of job hunting as the correct data for each situation of corporate recruitment such as new graduate, job change, and mid-career recruitment. Generate machine learning models. Therefore, for example, when the user U selects "job change", the information providing apparatus 10 can propose makeup according to document selection at the time of job change.

(1-2-4.ステップS4の処理)
本システム100において、第4に、算出した相性度、取得した態様情報や利用者Uの利用者情報に基づいて、利用者Uに提供する提供情報を生成する(ステップS4)。ここで、提供情報とは、化粧情報が示す化粧から特定された化粧に関する情報であって、利用者Uが提供可能な髪の態様にマッチするメイク等の情報であるが、特に限定されない。このとき、情報提供装置10は、化粧情報が示す化粧のうち所定の閾値以上の相性度の化粧を特定し、提供情報を生成する。例えば、情報提供装置10は、利用者Uが提供可能なヘアスタイルとの相性度が「0.7」以上のメイクの画像を特定し、当該画像および当該画像に示されるメイクに必要なコスメの情報を提供情報として生成する。
(1-2-4. Processing of step S4)
Fourthly, in the system 100, provision information to be provided to the user U is generated based on the calculated degree of compatibility, the acquired mode information, and the user information of the user U (step S4). Here, the provided information is information about makeup specified from the makeup indicated by the makeup information, and is information such as makeup that matches the style of hair that the user U can provide, but is not particularly limited. At this time, the information providing apparatus 10 identifies makeup having a degree of compatibility equal to or higher than a predetermined threshold among the makeup indicated by the makeup information, and generates provision information. For example, the information providing device 10 identifies an image of makeup with a degree of compatibility of “0.7” or higher with a hairstyle that can be provided by the user U, and specifies the image and the cosmetics required for the makeup shown in the image. Generate information as an offer.

上述したステップS4について、具体的な例を用いて説明する。例えば、情報提供装置10は、以下に示すように利用者Uの利用者情報をもとに提供情報を生成することができる。 Step S4 mentioned above is demonstrated using a specific example. For example, the information providing device 10 can generate the provided information based on the user information of the user U as described below.

情報提供装置10は、利用者情報が示す利用者属性をもとに提供情報を生成することができる。例えば、情報提供装置10は、メイクの候補のうち、利用者Uが事前に登録した好みのメイクの特徴と類似するものを優先的に提案する。さらに、情報提供装置10は、ヘアメイク予約サイト等に対して利用者Uが提供したサンプル画像のメイクの特徴と比較的近しいメイクの画像を優先的に提案することもできる。そのため、情報提供装置10は、利用者属性等をもとに化粧情報から特定された候補の中から類似性が高いメイクを提案することができる。 The information providing apparatus 10 can generate provision information based on user attributes indicated by user information. For example, the information providing apparatus 10 preferentially proposes, among the makeup candidates, makeup similar to the user U's pre-registered preferred makeup features. Furthermore, the information providing apparatus 10 can preferentially propose makeup images that are relatively similar to the makeup features of the sample image provided by the user U to a hair and makeup reservation site or the like. Therefore, the information providing apparatus 10 can propose makeup with high similarity among candidates specified from makeup information based on user attributes and the like.

また、情報提供装置10は、利用者情報が示す行動履歴をもとに提供情報を生成することができる。例えば、情報提供装置10は、利用者Uの購買履歴等の行動履歴をもとに利用者Uの購入済みのコスメが推定できる場合は、当該コスメをもとにメイクを提案する。 Further, the information providing device 10 can generate provision information based on the action history indicated by the user information. For example, when the cosmetics that the user U has already purchased can be estimated based on the action history such as the purchase history of the user U, the information providing device 10 proposes makeup based on the cosmetics.

(1-2-5.ステップS5の処理)
本システム100において、第5に、情報提供装置10は、生成した提供情報を利用者Uの利用者端末20に送信する(ステップS5)。例えば、情報提供装置10は、利用者Uが提供可能なヘアメイクとの相性度が「0.7」以上のメイクの画像および当該メイクに必要なコスメや化粧道具の情報を含む提供情報を、利用者Uの利用者端末20に送信する。
(1-2-5. Processing of step S5)
Fifthly, in the system 100, the information providing device 10 transmits the generated provided information to the user terminal 20 of the user U (step S5). For example, the information providing device 10 uses provided information including an image of makeup with a degree of compatibility of "0.7" or higher with hair and makeup that the user U can provide, and information on cosmetics and makeup tools necessary for the makeup. It is transmitted to the user terminal 20 of the person U.

(1-2-6.ステップS6の処理)
本システム100において、第6に、情報提供装置10は、算出した相性度を学習する(ステップS6)。例えば、情報提供装置10は、機械学習モデルを用いて、利用者Uが提供可能な髪の態様と化粧との組合せの相性がよいことを示す情報が入力された場合には、当該髪の態様に対する化粧の相性度が「1」に近づく数値として出力するように、バックプロパゲーション等を用いて学習する。また、情報提供装置10は、機械学習モデルを用いて、利用者Uが提供可能な髪の態様と化粧との組合せの相性が悪いことを示す情報が入力された場合には、当該髪の態様に対する化粧の相性度が「0」に近づく数値として出力するように、バックプロパゲーション等を用いて学習する。
(1-2-6. Processing of step S6)
Sixthly, in the system 100, the information providing device 10 learns the calculated degree of compatibility (step S6). For example, using a machine learning model, the information providing apparatus 10 uses a machine learning model, and when information is input that indicates that the combination of the hair style and makeup that can be provided by the user U is good, the information providing device 10 Learning is performed using back propagation or the like so that the degree of compatibility of makeup with respect to is output as a numerical value that approaches “1”. In addition, the information providing apparatus 10 uses a machine learning model to, when information is input indicating that the combination of the hair style and makeup that can be provided by the user U is incompatible, Learning is performed using back propagation or the like so that the degree of compatibility of makeup with respect to is output as a numerical value that approaches “0”.

(1-3.情報提供システム100で応用するセットマッチング技術)
ここで、上述してきた情報提供システム100で応用するセットマッチング技術の詳細について説明する。画像等の特徴量を示す情報の集合に基づいて、集合同士の調和具合を示すスコア(以下、適宜、「マッチングスコア」とする。)を算出する技術の一例として、セットマッチング(Set Matching)と呼ばれる技術が知られている。セットマッチングは、例えば深層学習を用いた技術であり、マッチングスコアが高いほど、集合同士の相性が高いと推定する。このため、セットマッチングは、集合同士の相性を定量的に評価することができる。セットマッチングを用いたマッチングスコアの算出は、例えば、Y. Saito, T. Nakamura, H. Hachiya, K. Fukumizu "Exchangeable Deep Neural Networks for Set-to-Set Matching and Learning"に開示されている。なお、セットマッチングは一例であり、実施形態は、この技術を用いた場合に限られないものとする。
(1-3. Set matching technology applied in information providing system 100)
Details of the set matching technique applied in the information providing system 100 described above will now be described. As an example of a technique for calculating a score (hereinafter referred to as a "matching score" as appropriate) indicating the degree of harmony between sets based on sets of information indicating feature amounts such as images, set matching and A technique called Set matching is a technique using deep learning, for example, and it is estimated that the higher the matching score, the higher the compatibility between sets. Therefore, set matching can quantitatively evaluate compatibility between sets. Calculation of matching scores using set matching is disclosed, for example, in Y. Saito, T. Nakamura, H. Hachiya, K. Fukumizu "Exchangeable Deep Neural Networks for Set-to-Set Matching and Learning". Note that set matching is an example, and the embodiments are not limited to the use of this technique.

情報提供装置10は、セットマッチングのような集合同士のマッチングスコアを算出する技術を応用して、髪の態様と化粧との組合せごとにマッチングスコア(相性度)を算出する。具体的には、情報提供装置10は、利用者Uが提供可能な髪の態様ごとに化粧との相性度を算出する。このとき、情報提供装置10は、相性度が高いほど、利用者Uが提供可能な髪の態様と化粧との相性が高いと推定することができるため、一の髪の態様に対して、最も相性度が高く算出された化粧を特定する。また、情報提供装置10は、一の髪の態様に対して、特定された化粧が化粧情報に含まれる化粧の中で相性が最も高い化粧と推定する。これにより、情報提供装置10は、髪の態様と化粧との相性を、外観等の利用者Uの感覚的な判断ではなく、定量的に判断することができる。 The information providing device 10 applies a technique of calculating matching scores between sets such as set matching to calculate matching scores (degree of compatibility) for each combination of hair style and makeup. Specifically, the information providing device 10 calculates the degree of compatibility with makeup for each type of hair that the user U can provide. At this time, the information providing apparatus 10 can estimate that the higher the degree of compatibility, the higher the compatibility between the hair style and makeup that the user U can provide. To specify makeup for which the degree of compatibility is calculated to be high. In addition, the information providing apparatus 10 estimates that the specified makeup is the makeup with the highest compatibility among the makeup included in the makeup information for one hair aspect. Accordingly, the information providing device 10 can quantitatively determine the compatibility between the appearance of the hair and the makeup, rather than the user U's sensory determination such as appearance.

また、情報提供装置10は、以下のように機械学習モデルの学習を行う。例えば、情報提供装置10は、SNSに投稿された画像のうち、当該SNSの閲覧者が好意的な評価を行った画像を特定する。次に、情報提供装置10は、特定した画像における髪の態様(髪型、髪色)と化粧(メイク)とを識別する。このとき、情報提供装置10は、各種の識別モデルを用いてもよく、クラウドソーシング等で識別結果を得てもよい。情報提供装置10は、上記の識別結果を正解データとして使用する。また、情報提供装置10は、利用者Uが投稿した画像から識別した結果を正解データとして使用もよい。そして、情報提供装置10は、正解データとなる髪の態様と化粧とを入力された際に、高いスコアを出力し、正解データにはない髪の態様と化粧とを入力された際に、低いスコアを出力するように機械学習モデルの学習を行う。このとき、情報提供装置10は、このような機械学習モデルを、利用者Uが化粧を施す対象者の属性ごとに生成してもよく、当該対象者の状況ごとに生成してもよい。また、情報提供装置10は、複数のモデルの出力値の操作を機械学習モデルの出力として採用することで、複数の切り口を考慮した相性の度合いを反映させてもよい。 Further, the information providing device 10 learns a machine learning model as follows. For example, the information providing apparatus 10 identifies images that have been favorably evaluated by viewers of the SNS among the images posted on the SNS. Next, the information providing apparatus 10 identifies the hair style (hairstyle, hair color) and makeup in the specified image. At this time, the information providing apparatus 10 may use various identification models, or obtain identification results through crowdsourcing or the like. The information providing device 10 uses the identification result as correct data. Further, the information providing apparatus 10 may use the result of identification from the image posted by the user U as correct data. Then, the information providing apparatus 10 outputs a high score when a hair style and makeup that are correct data are input, and a low score when a hair style and makeup that are not in the correct data are input. Train a machine learning model to output a score. At this time, the information providing apparatus 10 may generate such a machine learning model for each attribute of the subject to whom the user U applies makeup, or for each situation of the subject. Further, the information providing apparatus 10 may reflect the degree of compatibility in consideration of multiple perspectives by adopting the manipulation of the output values of multiple models as the output of the machine learning model.

(1-4.情報提供システム100の効果)
上述してきたように情報提供システム100では、情報提供装置10は、利用者Uが提供可能な髪の態様に関する態様情報を取得し、当該態様情報に基づいて、利用者Uが提供可能な髪の態様と化粧との組合せの相性の度合を示す相性度を算出し、当該相性度に基づいて、利用者Uに対して提供する提供情報を生成する。このとき、情報提供装置10は、髪の態様と当該態様の髪を有する対象者が施された化粧との組合せの相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このため、本システム100では、利用者Uが提供可能、または提供を希望するヘアメイクとマッチするメイクを推定し、利用者Uに対してコスメの提案をすることができる。すなわち、本システム100は、ヘアメイク予約サイト等においてヘアメイクの提案を行う美容師等の利用者Uに対して有益な情報を提供可能にする。
(1-4. Effect of Information Providing System 100)
As described above, in the information providing system 100, the information providing apparatus 10 acquires the mode information regarding the mode of hair that the user U can provide, and based on the mode information, the hair that the user U can provide. A degree of compatibility indicating the degree of compatibility between the aspect and the makeup is calculated, and provision information to be provided to the user U is generated based on the degree of compatibility. At this time, the information providing apparatus 10 calculates the degree of compatibility using a machine learning model that has learned the degree of compatibility between the hair style and the makeup applied to the subject having the hair style. Therefore, the system 100 can estimate makeup that matches the hair and makeup that the user U can provide or desires to provide, and can propose cosmetics to the user U. In other words, the system 100 makes it possible to provide useful information to users U such as beauticians who propose hair and makeup on hair and makeup reservation sites and the like.

また、本システム100では、情報提供装置10は、髪の態様を提供する利用者Uに関する利用者情報をさらに取得し、取得した利用者情報に基づいて化粧を特定し、提供情報を生成する。このため、本システム100では、利用者Uに対して、利用者Uが提供可能な髪型やヘアメイクであって、SNS等で評価が髪型や芸能人等の有名人が愛用しているヘアメイク等に親和性が高いメイクを提案することができる。すなわち、本システム100は、ヘアメイクの提案を行う利用者Uに対して、より具体的かつ有益な情報を提供可能にする。 Further, in the present system 100, the information providing apparatus 10 further acquires user information regarding the user U who provides the hair style, specifies makeup based on the acquired user information, and generates provision information. Therefore, in the present system 100, the user U can provide hairstyles and makeup that can be provided by the user U, and the hairstyles and hairstyles that are favorably used by celebrities such as celebrities are evaluated on SNS. can suggest high-quality makeup. That is, the system 100 makes it possible to provide more specific and useful information to the user U who proposes hair and makeup.

さらに、本システム100では、情報提供装置10は、髪の態様と当該態様の髪を有する対象者が施された化粧との組合せの相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このとき、情報提供装置10は、髪の態様と化粧とを含む動画像により相性の度合を学習した機械学習モデルを用いたり、化粧を施される対象者の属性ごとに相性の度合を学習した機械学習モデルを用いたり、当該対象者の状況ごとに相性の度合を学習した機械学習モデルを用いたりして、相性度を算出する。このため、本システム100では、SNS、テレビ、映画等から収集した正解データを用いて学習した様々な機械学習モデルを生成し、化粧を施す利用者Uに対してより精度の高いメイクを提案することができる。すなわち、本システム100は、ヘアメイクの提案を行う利用者Uに対して、より具体的かつ有益な情報を高い精度で提供可能にする。 Furthermore, in the present system 100, the information providing apparatus 10 uses a machine learning model that has learned the degree of compatibility between the combination of the hair style and the makeup applied to the subject who has the hair style to determine the degree of compatibility. calculate. At this time, the information providing apparatus 10 uses a machine learning model that learns the degree of compatibility from moving images including hair styles and makeup, or learns the degree of compatibility for each attribute of the subject to whom makeup is applied. The degree of compatibility is calculated by using a machine learning model or by using a machine learning model that has learned the degree of compatibility for each situation of the subject. For this reason, the system 100 generates various machine learning models learned using correct data collected from SNS, television, movies, etc., and proposes more accurate makeup to the user U who wears makeup. be able to. That is, the system 100 can provide more specific and useful information with high precision to the user U who proposes hair and makeup.

〔2.情報提供装置10の構成〕
図2を用いて、実施形態に係る情報提供装置10の構成について説明する。図2は、実施形態に係る情報提供装置10の構成例を示すブロック図である。図2に示すように、情報提供装置10は、通信部11、記憶部12および制御部13を有する。なお、情報提供装置10は、情報提供装置10の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of Information Providing Device 10]
The configuration of the information providing device 10 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the information providing device 10 according to the embodiment. As shown in FIG. 2 , the information providing device 10 has a communication section 11 , a storage section 12 and a control section 13 . The information providing apparatus 10 includes an input unit (for example, keyboard, mouse, etc.) for receiving various operations from the administrator of the information providing apparatus 10, and a display unit (for example, liquid crystal display, etc.) for displaying various information. may have.

(2-1.通信部11)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、所定の通信網(ネットワーク)と有線または無線で接続され、各種装置との間で情報の送受信を行う。
(2-1. Communication unit 11)
The communication unit 11 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 11 is connected to a predetermined communication network (network) by wire or wirelessly, and transmits and receives information to and from various devices.

(2-2.記憶部12)
記憶部12は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部12は、図2に示すように、態様情報記憶部12a、化粧情報記憶部12b、相性度情報記憶部12cおよび提供情報記憶部12dを有する。そして、記憶部12は、制御部13が動作する際に参照する各種情報や、制御部13が動作した際に取得した各種情報を記憶する。
(2-2. Storage unit 12)
The storage unit 12 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 12 according to the embodiment has, as shown in FIG. 2, a mode information storage unit 12a, a makeup information storage unit 12b, a compatibility information storage unit 12c, and a provision information storage unit 12d. The storage unit 12 stores various information referred to when the control unit 13 operates and various information acquired when the control unit 13 operates.

(2-2-1.態様情報記憶部12a)
態様情報記憶部12aは、利用者Uが提供可能な髪の態様に関する各種の情報(態様情報)を記憶する。ここで、図3を用いて、態様情報記憶部12aが記憶する情報の一例を説明する。図3は、実施形態に係る態様情報記憶部12aの一例を示す図である。図3の例において、態様情報記憶部12aは、「態様ID」、「態様情報」といった項目を有する。
(2-2-1. Mode information storage unit 12a)
The mode information storage unit 12a stores various types of information (mode information) regarding the mode of hair that the user U can provide. Here, an example of information stored in the mode information storage unit 12a will be described with reference to FIG. FIG. 3 is a diagram showing an example of the mode information storage unit 12a according to the embodiment. In the example of FIG. 3, the mode information storage unit 12a has items such as "mode ID" and "mode information".

「態様ID」は、髪の態様を識別するための識別情報を示す。「態様情報」は、髪型、髪色等のヘアスタイル全般を示す髪の態様に関する情報や、かつらやウィッグ等を用いた髪の態様に関する情報である。 “Mode ID” indicates identification information for identifying the mode of hair. The “mode information” is information about the mode of hair indicating general hairstyles such as hairstyle and hair color, and information about the mode of hair using wigs, wigs, and the like.

すなわち、図3では、態様ID「HID#1」によって識別される髪の態様の態様情報が「態様情報#1」、態様ID「HID#2」によって識別される髪の態様の態様情報が「態様情報#2」である例を示す。 That is, in FIG. 3, the mode information of the hair mode identified by the mode ID "HID#1" is "mode information #1", and the mode information of the hair mode identified by the mode ID "HID#2" is " An example of "mode information #2" is shown.

(2-2-2.化粧情報記憶部12b)
化粧情報記憶部12bは、化粧に関する各種の情報(化粧情報)を記憶する。ここで、図4を用いて、化粧情報記憶部12bが記憶する情報の一例を説明する。図4は、実施形態に係る化粧情報記憶部12bの一例を示す図である。図4の例において、化粧情報記憶部12bは、「化粧ID」、「化粧情報」といった項目を有する。
(2-2-2. Makeup information storage unit 12b)
The makeup information storage unit 12b stores various kinds of information (makeup information) about makeup. An example of information stored in the makeup information storage unit 12b will now be described with reference to FIG. FIG. 4 is a diagram showing an example of the makeup information storage unit 12b according to the embodiment. In the example of FIG. 4, the makeup information storage unit 12b has items such as "makeup ID" and "makeup information".

「化粧ID」は、化粧を識別するための識別情報を示す。「化粧情報」とは、化粧情報とは、化粧(メイク)に関する情報であって、ファンデーション・口紅・アイシャドウ等のコスメ、メイクに用いる器具や道具の他、メイクの手順等の情報である。 “Makeup ID” indicates identification information for identifying makeup. "Makeup information" is information about makeup, including cosmetics such as foundation, lipstick, and eye shadow, tools and tools used for makeup, and procedures for applying makeup.

すなわち、図4では、化粧ID「DID#1」によって識別される化粧の化粧情報が「化粧情報#1」、化粧ID「DID#2」によって識別される化粧の化粧情報が「化粧情報#2」である例を示す。 That is, in FIG. 4, the makeup information of the makeup identified by the makeup ID "DID#1" is "makeup information #1", and the makeup information of the makeup identified by the makeup ID "DID#2" is "makeup information #2". ” shows an example.

(2-2-3.相性度情報記憶部12c)
相性度情報記憶部12cは、制御部13の算出部13bによって算出された髪の態様に対する化粧ごとの相性度(相性度情報)を記憶する。ここで、図5を用いて、相性度情報記憶部12cが記憶する情報の一例を説明する。図5は、実施形態に係る相性度情報記憶部12cの一例を示す図である。図5の例において、相性度情報記憶部12cは、「態様ID」、「化粧ID」、「相性度」といった項目を有する。
(2-2-3. Compatibility information storage unit 12c)
The compatibility information storage unit 12 c stores the compatibility (compatibility information) for each makeup with respect to the appearance of the hair calculated by the calculation unit 13 b of the control unit 13 . Here, an example of information stored in the compatibility information storage unit 12c will be described with reference to FIG. FIG. 5 is a diagram showing an example of the compatibility information storage unit 12c according to the embodiment. In the example of FIG. 5, the compatibility level information storage unit 12c has items such as "mode ID", "makeup ID", and "compatibility level".

「態様ID」は、髪の態様を識別するための識別情報を示す。「化粧ID」は、化粧を識別するための識別情報を示す。「相性度」は、髪の態様に対する化粧ごとの相性の度合を示す数値である。 “Mode ID” indicates identification information for identifying the mode of hair. “Makeup ID” indicates identification information for identifying makeup. The “compatibility degree” is a numerical value indicating the degree of compatibility of each make-up with respect to the appearance of the hair.

すなわち、図5では、態様ID「HID#1」によって識別される髪の態様について、化粧情報「化粧情報#1」、相性度「相性度#1」であって、態様ID「HID#2」によって識別される髪の態様について、化粧情報「化粧情報#2」、相性度「相性度#2」である例を示す。 That is, in FIG. 5, regarding the aspect of the hair identified by the aspect ID “HID#1”, the makeup information “makeup information #1”, the compatibility “compatibility #1”, and the aspect ID “HID#2” An example of the makeup information “makeup information #2” and the compatibility “compatibility #2” is shown for the aspect of the hair identified by .

(2-2-4.提供情報記憶部12d)
提供情報記憶部12dは、制御部13の生成部13cによって生成された提供情報を記憶する。ここで、図6を用いて、提供情報記憶部12dが記憶する情報の一例を説明する。図6は、実施形態に係る提供情報記憶部12dの一例を示す図である。図6の例において、提供情報記憶部12dは、「態様ID」、「提供情報」といった項目を有する。
(2-2-4. Provided information storage unit 12d)
The provided information storage unit 12d stores provided information generated by the generation unit 13c of the control unit 13 . Here, an example of information stored in the provided information storage unit 12d will be described with reference to FIG. FIG. 6 is a diagram showing an example of the provided information storage unit 12d according to the embodiment. In the example of FIG. 6, the provided information storage unit 12d has items such as "mode ID" and "provided information."

「態様ID」は、髪の態様を識別するための識別情報を示す。「提供情報」は、利用者Uが提供可能な髪の態様に相性のよいメイク等に関する情報であって、利用者Uに提供するコスメ、メイク道具、メイクの手順等の情報である。 “Mode ID” indicates identification information for identifying the mode of hair. "Provided information" is information about makeup that is compatible with the style of hair that the user U can provide, and is information such as cosmetics, makeup tools, and makeup procedures to be provided to the user U.

すなわち、図6では、態様ID「HID#1」によって識別される髪の態様についての提供情報が「提供情報#1」、態様ID「HID#2」によって識別される髪の態様についての提供情報が「提供情報#2」である例を示す。 That is, in FIG. 6 , the provided information about the hair aspect identified by the aspect ID “HID#1” is “provided information #1”, and the provided information about the hair aspect identified by the aspect ID “HID#2” is “provided information #1”. is "provided information #2".

(2-3.制御部13)
制御部13は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報提供装置10内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(2-3. Control unit 13)
The control unit 13 executes various programs (equivalent to an example of an information processing program) stored in a storage device inside the information providing apparatus 10 by means of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. It is realized by being executed as a work area. Also, the control unit 13 is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部13は、取得部13a、算出部13b、生成部13c、送信部13dおよび学習部13eを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部13の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部13が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 13 has an acquisition unit 13a, a calculation unit 13b, a generation unit 13c, a transmission unit 13d, and a learning unit 13e, and implements or executes the information processing functions and actions described below. . Note that the internal configuration of the control unit 13 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it performs information processing to be described later. Moreover, the connection relationship between the processing units of the control unit 13 is not limited to the connection relationship shown in FIG. 2, and may be another connection relationship.

(2-3-1.取得部13a)
取得部13aは、利用者が提供可能な髪の態様に関する態様情報を取得する。例えば、取得部13aは、利用者端末20から、態様情報として、利用者Uが選択した画像に対応付けされた髪型、髪色等の髪の態様に関する情報を取得する。
(2-3-1. Acquisition unit 13a)
Acquisition unit 13a acquires mode information about the mode of hair that can be provided by the user. For example, the acquiring unit 13a acquires, from the user terminal 20, information about the hair style, such as hairstyle and hair color, associated with the image selected by the user U as the style information.

また、取得部13aは、化粧に関する化粧を取得する。例えば、取得部13aは、化粧情報データベース30から、化粧情報として、コスメ、メイク道具、メイクの手順等の化粧に関する情報を取得する。このとき、取得部13aは、化粧情報データベース30から、ヘアメイク予約サイトのサービス提供者によって関連付けされた化粧情報を取得してもよい。また、取得部13aは、事前に各髪の態様に対する相性度が高い化粧として登録された化粧を含む化粧情報を取得してもよい。 The acquisition unit 13a also acquires makeup related to makeup. For example, from the makeup information database 30, the acquiring unit 13a acquires, as makeup information, makeup-related information such as cosmetics, makeup tools, and makeup procedures. At this time, the acquiring unit 13a may acquire from the makeup information database 30 the makeup information associated by the service provider of the hair and makeup reservation site. The acquisition unit 13a may also acquire makeup information including makeup registered in advance as makeup highly compatible with each hair style.

また、取得部13aは、髪の態様を提供する利用者Uに関する利用者情報を取得する。
例えば、取得部13aは、利用者Uの利用者端末20から、利用者情報として、利用者Uの興味関心を有するカテゴリ等を含む利用者属性や、利用者Uの検索履歴・閲覧履歴・購買履歴・位置情報等の行動履歴を取得する。
The acquisition unit 13a also acquires user information about the user U who provides the hair style.
For example, the acquisition unit 13a obtains, from the user terminal 20 of the user U, as user information, user attributes including categories in which the user U has an interest, search history, browsing history, and purchase history of the user U. Acquire action history such as history and location information.

なお、取得部13aは、取得した態様情報を態様情報記憶部12aに格納する。また、取得部13aは、取得した化粧情報を化粧情報記憶部12bに格納する。さらに、取得部13aは、取得した利用者情報を記憶部12に格納することもできる。 Acquisition unit 13a stores the acquired mode information in mode information storage unit 12a. Further, the acquisition unit 13a stores the acquired makeup information in the makeup information storage unit 12b. Furthermore, the acquisition unit 13 a can store the acquired user information in the storage unit 12 .

(2-3-2.算出部13b)
算出部13bは、態様情報に基づいて、髪の態様と化粧との組合せの相性の度合を示す相性度を算出する。例えば、算出する手法について説明すると、算出部13bは、髪の態様と当該態様の髪を有する対象者が施された化粧との組合せの相性の度合を学習した機械学習モデルを用いて、相性度を算出する。具体的な例としては、算出部13bは、利用者Uが選択した態様情報や化粧情報を入力された際に髪の態様に対する化粧ごとの相性度を出力するように学習されたDNN等の機械学習モデルを用いて、相性度を算出する。また、算出部13bは、ルールベースで利用者Uが選択した髪の態様に対する化粧ごとの相性度を算出してもよい。
(2-3-2. Calculation unit 13b)
The calculation unit 13b calculates a degree of compatibility indicating the degree of compatibility between the hair style and the makeup based on the style information. For example, to explain the calculation method, the calculation unit 13b uses a machine learning model that has learned the degree of compatibility between the combination of the hair style and the makeup applied to the subject who has the hair style, and calculates the degree of compatibility. Calculate As a specific example, the calculation unit 13b is a machine such as a DNN that has been learned to output the degree of compatibility of each makeup with respect to the appearance of hair when style information and makeup information selected by the user U are input. Compatibility is calculated using a learning model. Further, the calculation unit 13b may calculate the degree of compatibility of each makeup with the style of hair selected by the user U on a rule basis.

また、算出する数値について説明すると、算出部13bは、化粧ごとの相性の度合に応じて0~1の数値をとるように相性度を算出する。また、算出部13bは、化粧ごとの相性の度合に応じて0~100%の数値をとるように相性度を算出してもよく、算出する数値の範囲や単位は特に限定されない。 In addition, regarding the numerical value to be calculated, the calculation unit 13b calculates the degree of compatibility so as to take a numerical value of 0 to 1 according to the degree of compatibility for each makeup. Further, the calculation unit 13b may calculate the degree of compatibility so as to take a numerical value of 0 to 100% according to the degree of compatibility for each makeup, and the range and units of numerical values to be calculated are not particularly limited.

具体的な例を用いて説明すると、例えばヘアスタイルHとコスメM1との相性度が「0.9」であり、ヘアスタイルHとコスメM2との相性度が「0.8」であり、ヘアスタイルHとコスメM3との相性度が「0.7」である場合、算出部13bは、相性度が最も高いコスメM1が、ヘアスタイルHとの相性が高いと推定する。これにより、算出部13bは、服飾物品と髪の態様との組合せの最適化を適切に行うことができる。 To explain using a specific example, for example, the degree of compatibility between hairstyle H and cosmetics M1 is "0.9", the degree of compatibility between hairstyle H and cosmetics M2 is "0.8", and the degree of compatibility between hairstyle H and cosmetics M2 is "0.8". When the degree of compatibility between the style H and the cosmetics M3 is "0.7", the calculation unit 13b estimates that the cosmetics M1, which have the highest degree of compatibility, are highly compatible with the hairstyle H. As a result, the calculation unit 13b can appropriately optimize the combination of furnishings and hair styles.

また、算出部13bが用いる機械学習モデルの学習データについて説明すると、算出部13bは、髪の態様と化粧とを含む動画像により相性の度合を学習した機械学習モデルを用いて、相性度を算出する。具体的な例としては、算出部13bは、ウェブサイト、SNS、テレビ、映画等から収集された髪の態様と施された化粧が同時に映っている動画、静止画等により相性の度合を学習した機械学習モデルを用いて、相性度を算出する。 Further, learning data of the machine learning model used by the calculation unit 13b will be explained. do. As a specific example, the calculation unit 13b learns the degree of compatibility from videos, still images, etc., in which the appearance of the hair and the makeup applied are collected from websites, SNS, television, movies, etc. Compatibility is calculated using a machine learning model.

さらに、算出部13bは、化粧を施される対象者の属性ごとに相性の度合を学習した機械学習モデルを用いて、相性度を算出する。具体的な例としては、算出部13bは、対象者の年代、好きな芸能人やドラマの種類等の趣味趣向を含む利用者属性ごとに生成された複数の機械学習モデルを用いて、相性度を算出する。 Furthermore, the calculation unit 13b calculates the degree of compatibility using a machine learning model that has learned the degree of compatibility for each attribute of the subject to whom makeup is applied. As a specific example, the calculation unit 13b calculates the degree of compatibility using a plurality of machine learning models generated for each user attribute including the target person's age, favorite entertainer, type of drama, and other user attributes. calculate.

また、算出部13bは、化粧を施される対象者の状況ごとに相性の度合を学習した機械学習モデルを用いて、相性度を算出する。具体的な例としては、情報提供装置10は、新卒、転職、中途採用等のシチュエーションごとに、書類選考に通った対象者の就職活動時の画像を学習した機械学習モデルを用いて、相性度を算出する。 In addition, the calculation unit 13b calculates the degree of compatibility using a machine learning model that has learned the degree of compatibility for each situation of the person to whom makeup is applied. As a specific example, the information providing device 10 uses a machine learning model that learns images of job-seeking candidates who passed document screening for each situation, such as new graduates, job changes, and mid-career hiring, to determine the degree of compatibility. Calculate

なお、算出部13bは、利用者Uが選択した髪の態様に関する態様情報を態様情報記憶部12aから取得する。また、算出部13bは、化粧を示す化粧情報を化粧情報記憶部12bから取得する。一方、算出部13bは、算出した相性度を相性度情報記憶部12cに格納する。 Note that the calculation unit 13b acquires the mode information about the hair mode selected by the user U from the mode information storage unit 12a. The calculation unit 13b also acquires makeup information indicating makeup from the makeup information storage unit 12b. On the other hand, the calculation unit 13b stores the calculated degree of compatibility in the degree of compatibility information storage unit 12c.

(2-3-3.生成部13c)
生成部13cは、算出された相性度に基づいて、利用者Uに対して提供する提供情報を生成する。例えば、生成部13cは、取得された化粧情報が示す化粧のうち所定の閾値以上の相性度の化粧を特定し、提供情報を生成する。具体的な例を用いて説明すると、生成部13cは、利用者Uが提供可能な髪の態様であるヘアスタイルHに対する化粧に必要なコスメであるコスメM1、M2、M3、・・・のうち、ヘアスタイルHとの相性度が「0.7」以上であるコスメM1、M2、M3を特定し、コスメM1、M2、M3の画像等を含んだ提供情報を生成する。
(2-3-3. Generation unit 13c)
The generation unit 13c generates provision information to be provided to the user U based on the calculated degree of compatibility. For example, the generation unit 13c identifies makeup having a degree of compatibility equal to or greater than a predetermined threshold among makeup indicated by the acquired makeup information, and generates provision information. Using a specific example, the generation unit 13c generates cosmetics M1, M2, M3, . , cosmetics M1, M2, and M3 whose degree of compatibility with the hairstyle H is "0.7" or higher, and provides information including images of the cosmetics M1, M2, and M3.

また、生成部13cは、取得された利用者Uの利用者情報に基づいて化粧を特定し、提供情報を生成する。例えば、生成部13cは、所定の閾値以上の相性度の化粧のうち、利用者Uの好みとして登録された化粧を特定し、当該化粧を含む提供情報を生成する。 Further, the generation unit 13c identifies makeup based on the acquired user information of the user U, and generates provision information. For example, the generation unit 13c identifies makeup registered as a preference of the user U among makeup having a degree of compatibility equal to or greater than a predetermined threshold, and generates provision information including the makeup.

なお、生成部13cは、相性度情報を相性度情報記憶部12cから取得する。また、生成部13cは、生成した提供情報を提供情報記憶部12dに格納する。 Note that the generation unit 13c acquires compatibility information from the compatibility information storage unit 12c. Further, the generating unit 13c stores the generated provided information in the provided information storage unit 12d.

(2-3-4.送信部13d)
送信部13dは、生成部13cによって生成された提供情報を利用者Uに送信する。例えば、送信部13dは、利用者Uの利用者端末20に、利用者Uが提供可能な髪の態様に対する相性度が所定の閾値以上の化粧を含む画像を送信する。このとき、送信部13dは、化粧を含む画像とともに、当該化粧に必要なコスメやメイクの手順の情報を送信してもよい。
(2-3-4. Transmitter 13d)
The transmitting unit 13d transmits to the user U the provided information generated by the generating unit 13c. For example, the transmission unit 13d transmits to the user terminal 20 of the user U an image including makeup whose degree of compatibility with the style of hair that the user U can provide is equal to or greater than a predetermined threshold. At this time, the transmission unit 13d may transmit information on cosmetics required for the makeup and makeup procedure together with the image including the makeup.

なお、送信部13dは、提供情報を提供情報記憶部12dから取得する。また、送信部13dは、提供情報を図示しないサーバ・事業者端末・データベースに送信してもよい。 In addition, the transmission unit 13d acquires the provided information from the provided information storage unit 12d. Further, the transmission unit 13d may transmit the provided information to a server, business operator terminal, or database (not shown).

(2-3-5.学習部13e)
学習部13eは、利用者Uが選択した態様情報や化粧を入力された際に髪の態様に対する化粧ごとの相性度を出力するように、機械学習モデルの学習を行う。このとき、学習部13eは、バックプロパゲーション等により機械学習モデルの学習を行ってもよい。
(2-3-5. Learning unit 13e)
The learning unit 13e learns a machine learning model so as to output the degree of compatibility of each makeup with the appearance of the hair when the style information and makeup selected by the user U are input. At this time, the learning unit 13e may learn the machine learning model by back propagation or the like.

例えば、学習部13eは、利用者U、利用者Uの属性、利用者Uの状況ごとに、利用者Uが提供可能な髪の態様と化粧との組合せの相性がよいことを示す情報が機械学習モデルに入力された場合には、当該髪の態様に対する化粧の相性度が「1」に近づく数値として出力されるように、機械学習モデルの学習を行う。 For example, the learning unit 13e stores information indicating that the combination of the hair style and makeup that can be provided by the user U is good for each of the user U, the attribute of the user U, and the situation of the user U. When input to the learning model, the machine learning model is trained so that the degree of compatibility of makeup with the appearance of the hair is output as a numerical value approaching "1".

一方、学習部13eは、利用者U、利用者Uの属性、利用者Uの状況ごとに、利用者Uが提供可能な髪の態様と化粧との組合せの相性が悪いことを示す情報が機械学習モデルに入力された場合には、当該髪の態様に対する化粧の相性度が「0」に近づく数値として出力されるように、機械学習モデルの学習を行う。 On the other hand, the learning unit 13e receives information indicating that the combination of the hair style and makeup that the user U can provide is incompatible for each of the user U, the attribute of the user U, and the situation of the user U. When input to the learning model, the machine learning model is trained so that the degree of compatibility of makeup with the appearance of the hair is output as a numerical value approaching "0."

〔3.情報提供処理の具体例〕
続いて、実施形態に係る情報提供処理の具体例について説明する。以下では、機械学習モデルの学習処理、提供情報の生成処理について説明した上で、利用者Uの利用者端末20に送信される提供情報の具体例について説明する。
[3. Specific example of information provision processing]
Next, a specific example of information provision processing according to the embodiment will be described. A specific example of the provision information transmitted to the user terminal 20 of the user U will be described below after explaining the learning process of the machine learning model and the provision information generation process.

(3-1.機械学習モデルの学習処理)
実施形態に係る機械学習モデルの学習処理について説明する。当該処理を実行することによって、情報提供装置10は、後述する提供情報の生成処理に用いられる学習済みの機械学習モデルを生成することが可能となる。以下では、正解データ収集処理、画像データ抽出処理、画像データ学習処理の順に説明する。
(3-1. Learning process of machine learning model)
Learning processing of the machine learning model according to the embodiment will be described. By executing this process, the information providing device 10 can generate a learned machine learning model that is used in the process of generating provided information, which will be described later. Below, correct data collection processing, image data extraction processing, and image data learning processing will be described in this order.

(3-1-1.正解データ収集処理)
まず、情報提供装置10は、SNSから正解データを収集する。ここで、収集される正解データは、例えば髪型とメイクとが同時に撮影されている画像であって、評価が所定の条件を満たす画像である。より具体的には、収集される正解データは、所定の人物が投稿した画像、「いいね」の数が所定数を超える画像、コメントの数や好意的内容が所定数を超える画像等である。また、情報提供装置10は、同様にしてテレビコマーシャルや映画等の動画像から正解データを収集することもできる。
(3-1-1. Correct data collection processing)
First, the information providing device 10 collects correct answer data from the SNS. Here, the correct data to be collected is, for example, an image in which hairstyle and makeup are photographed at the same time, and is an image that satisfies a predetermined evaluation condition. More specifically, the correct data to be collected includes images posted by a predetermined person, images with more than a predetermined number of likes, images with more than a predetermined number of comments and favorable content, and the like. . The information providing device 10 can also collect correct data from moving images such as television commercials and movies in the same way.

(3-1-2.画像データ抽出処理)
次に、情報提供装置10は、収集した正解データの画像から、髪部分と、メイク部分(例:顔部分、手足部分)を抽出する。このとき、情報提供装置10は、メイク部分について、眉毛、目、鼻、口、爪等ごとに抽出を行ってもよい。
(3-1-2. Image data extraction processing)
Next, the information providing device 10 extracts the hair portion and the make-up portion (eg, face portion, limb portion) from the collected correct data image. At this time, the information providing apparatus 10 may extract makeup parts for each eyebrow, eye, nose, mouth, nail, and the like.

(3-1-3.画像データ学習処理)
そして、情報提供装置10は、同一の画像から抽出した髪部分の画像と各メイク部分の画像との組合せ(つまり評価がよいと思われる組合せ)が入力された際に、相性が高い旨の情報(例えば、スコア1)を出力するように機械学習モデルを学習させる。また、情報提供装置10は、異なる画像から抽出した髪部分の画像とメイク部分の画像との組合せ(つまり、評価がよいかわからない組合せ)が入力された際に、相性が低い旨の情報(例えば、スコア0や、所定値(0.7)以下のランダム数値)を出力するように機械学習モデルを学習させる。上記のような処理によって、情報提供装置10は、上述したセットマッチングを学習した機械学習モデルを生成する。
(3-1-3. Image data learning processing)
Then, when a combination of an image of a hair part and an image of each makeup part extracted from the same image (that is, a combination considered to be highly evaluated) is input, the information providing apparatus 10 provides information indicating that the combination is high. Train a machine learning model to output (for example, a score of 1). Further, when a combination of an image of a hair part and an image of a makeup part extracted from different images (that is, a combination of which the evaluation is not known to be good) is input, the information providing apparatus 10 provides information indicating that the compatibility is low (for example, , a score of 0, or a random number equal to or less than a predetermined value (0.7)). Through the processing described above, the information providing device 10 generates a machine learning model that has learned the above-described set matching.

(3-2.提供情報の生成処理)
実施形態に係る提供情報の生成処理について説明する。当該処理を実行することによって、情報提供装置10は、例えば各スタイリストが投稿したメイクを提供したり、利用者Uがメイクを選択すると、選択されたスタイリストが所属するメイクサロンの予約サービス(スタイリストの予約サービス)を提供したりすることが可能となる。以下では、態様情報取得処理、候補情報生成処理、態様特定処理、提供情報送信処理の順に説明する。
(3-2. Provided information generation processing)
A process of generating provision information according to the embodiment will be described. By executing this process, the information providing apparatus 10 provides, for example, makeup posted by each stylist, and when the user U selects makeup, the reservation service of the makeup salon to which the selected stylist belongs (stylist's reservation service). reservation service) can be provided. In the following, the mode information acquisition process, the candidate information generation process, the mode identification process, and the provided information transmission process will be described in this order.

(3-2-1.態様情報取得処理)
まず、情報提供装置10は、例えばメイク等に関する情報を提供するサーバである。このとき、情報提供装置10は、利用者Uが登録や選択したヘアメイクの画像を取得する。すなわち、上記のような処理によって、情報提供装置10は、利用者Uが提供可能な髪の態様の画像(態様情報)を取得する。
(3-2-1. Mode Information Acquisition Processing)
First, the information providing apparatus 10 is a server that provides information on makeup, for example. At this time, the information providing device 10 acquires an image of hair and makeup registered or selected by the user U. FIG. That is, the information providing apparatus 10 acquires an image of the hair style (mode information) that the user U can provide by the above-described processing.

(3-2-2.候補情報生成処理)
次に、情報提供装置10は、取得した画像から髪部分を切り出した画像を生成するとともに、各メイク部分と、髪部分から切り出した画像とを組み合わせた候補情報を生成する。このとき、情報提供装置10は、メイクの画像(化粧情報)を各利用者Uから受け付けてもよいし、メイク部分の画像を収集した化粧情報データベース30から取得してもよい。
(3-2-2. Candidate information generation process)
Next, the information providing apparatus 10 generates an image obtained by cutting out the hair portion from the obtained image, and generates candidate information by combining each make-up portion and the image cut out from the hair portion. At this time, the information providing apparatus 10 may receive makeup images (makeup information) from each user U, or may acquire images of makeup portions from the makeup information database 30 .

(3-2-3.態様特定処理)
続いて、情報提供装置10は、生成した候補情報をそれぞれ機械学習モデルに入力し、出力されたスコアが所定の閾値を超える候補情報に含まれるメイク等を特定する。すなわち、上記のような処理によって、情報提供装置10は、利用者Uが提供可能な髪の態様と相性度が高い化粧を特定する。
(3-2-3. Aspect identification processing)
Subsequently, the information providing apparatus 10 inputs each of the generated candidate information to the machine learning model, and identifies makeup and the like included in the candidate information whose outputted score exceeds a predetermined threshold. That is, through the above-described processing, the information providing device 10 identifies makeup that is highly compatible with the appearance of hair that the user U can provide.

(3-2-4.提供情報送信処理)
そして、情報提供装置10は、特定したメイク等の画像にコスメの購入サイト等へのリンクを付与して提供情報を生成し、生成した1つもしくは複数の提供情報を利用者端末20に送信する。この結果、情報提供装置10は、「このヘアスタイルに相性のよいメイクはこちらです。コスメを購入されますか?」といった情報を利用者Uに提供できる。また、情報提供装置10は、利用者Uが美容室等の情報を提供しているヘアメイク予約サイトのサーバを介して、上記の情報を利用者Uに提供することもできる。このとき、情報提供装置10は、利用者Uの利用者端末20に直接提供情報を送信することもできる。
(3-2-4. Provided information transmission processing)
Then, the information providing apparatus 10 generates provision information by adding a link to a cosmetics purchase site or the like to the specified image of makeup or the like, and transmits the generated one or a plurality of pieces of provision information to the user terminal 20. . As a result, the information providing device 10 can provide the user U with information such as "Here is makeup that goes well with this hairstyle. Would you like to purchase cosmetics?" The information providing apparatus 10 can also provide the above information to the user U via the server of the hair and makeup reservation site where the user U provides information on beauty salons and the like. At this time, the information providing device 10 can also transmit the provided information directly to the user terminal 20 of the user U. FIG.

(3-3.提供情報の具体例)
図7を用いて、実施形態に係る提供情報の具体例について説明する。図7は、実施形態に係る情報提供処理の具体例を示す図である。以下では、利用者Uの利用者端末20に送信され、表示される提供情報の具体例について説明する。
(3-3. Specific examples of provided information)
A specific example of the provided information according to the embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating a specific example of information provision processing according to the embodiment. A specific example of the provided information that is transmitted to and displayed on the user terminal 20 of the user U will be described below.

(3-3-1.表示画面W1)
まず、利用者Uの利用者端末20に表示される提供情報として、利用者Uが提供可能な髪型・髪色等の髪の態様に関する表示画面W1について説明する。表示画面W1では、利用者Uがヘアメイク予約サイトにアップロードした髪の態様であるヘアスタイルHの画像H1と、当該髪の態様の施術料金、施術内容等を含む画面H2とが表示されている。
(3-3-1. Display screen W1)
First, a display screen W1 relating to hair styles such as hairstyles, hair colors, etc. that can be provided by the user U as information displayed on the user terminal 20 of the user U will be described. On the display screen W1, an image H1 of a hairstyle H, which is a hair style uploaded by the user U to the hair/makeup reservation site, and a screen H2 including the treatment fee, treatment details, etc. of the hair style are displayed.

(3-3-2.表示画面W2)
また、利用者Uの利用者端末20に表示される提供情報として、利用者Uが提供可能な髪型・髪色等の髪の態様に対するメイク等に関する情報を含む表示画面W2について説明する。表示画面W2では、「このヘアに合うコスメ」として、コスメX、Y、Zの情報として画面M1、M2、M3が表示されている。このとき、利用者Uは、コスメX、Y、Zの情報である画面M1、M2、M3をクリックすることによって、各コスメの詳細や当該コスメを用いたメイクの画像を閲覧することもできる。また、利用者Uは、コスメX、Y、Zの情報である画面M1、M2、M3をクリックすることによって、各コスメの購入サイトへ遷移することもできる。
(3-3-2. Display screen W2)
In addition, the display screen W2 including information on makeup for the hairstyle, hair color, etc. that can be provided by the user U as information displayed on the user terminal 20 of the user U will be described. On the display screen W2, screens M1, M2, and M3 are displayed as information on cosmetics X, Y, and Z as "cosmetics that match this hair." At this time, the user U can also browse the details of each cosmetic and the image of the makeup using the cosmetic by clicking the screens M1, M2, and M3, which are the information of the cosmetics X, Y, and Z. In addition, the user U can also transition to the purchase site of each cosmetic by clicking screens M1, M2, and M3, which are information on cosmetics X, Y, and Z. FIG.

〔4.情報提供処理の流れ〕
図8を用いて、実施形態に係る情報提供装置10の情報処理の手順について説明する。図8は、実施形態に係る情報提供処理の流れの一例を示すフローチャートである。なお、下記のステップS101~S106は、異なる順序で実行することもできる。また、下記のステップS101~S106のうち、省略される処理があってもよい。
[4. Information provision processing flow]
The information processing procedure of the information providing apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the flow of information provision processing according to the embodiment. Note that steps S101 to S106 below can also be performed in a different order. Also, some of steps S101 to S106 below may be omitted.

(4-1.態様情報収集処理)
第1に、情報提供装置10の取得部13aは、態様情報取得処理を実行する(ステップS101)。例えば、取得部13aは、利用者端末20から利用者Uが提供可能な髪の態様に関する態様情報を取得する。
(4-1. Mode information collection processing)
First, the acquisition unit 13a of the information providing device 10 executes mode information acquisition processing (step S101). For example, the acquisition unit 13a acquires from the user terminal 20 the mode information about the hair mode that the user U can provide.

(4-2.化粧情報収集処理)
第2に、情報提供装置10の取得部13aは、化粧情報取得処理を実行する(ステップS102)。例えば、取得部13aは、化粧情報データベース30を参照し、化粧に関する化粧情報を取得する。
(4-2. Makeup information collection processing)
Second, the acquisition unit 13a of the information providing device 10 executes makeup information acquisition processing (step S102). For example, the acquisition unit 13a refers to the makeup information database 30 to acquire makeup information about makeup.

(4-3.相性度算出処理)
第3に、情報提供装置10の算出部13bは、相性度算出処理を実行する(ステップS103)。例えば、算出部13bは、取得された態様情報および化粧情報から、利用者Uが提供可能な髪の態様に対する化粧ごとの相性度を算出する。
(4-3. Compatibility degree calculation processing)
Thirdly, the calculation unit 13b of the information providing device 10 executes compatibility degree calculation processing (step S103). For example, the calculation unit 13b calculates the degree of compatibility of each makeup with the hair style that the user U can provide from the acquired style information and makeup information.

(4-4.提供情報生成処理)
第4に、情報提供装置10の生成部13cは、提供情報生成処理を実行する(ステップS104)。例えば、生成部13cは、算出された相性度や利用者情報に基づいて、利用者Uに提供する提供情報を生成する。
(4-4. Provided information generation processing)
Fourthly, the generating unit 13c of the information providing device 10 executes the provided information generating process (step S104). For example, the generation unit 13c generates provision information to be provided to the user U based on the calculated degree of compatibility and user information.

(4-5.提供情報送信処理)
第5に、情報提供装置10の送信部13dは、提供情報送信処理を実行する(ステップS105)。例えば、送信部13dは、生成された提供情報を利用者Uの利用者端末20に送信する。
(4-5. Provided information transmission processing)
Fifthly, the transmission unit 13d of the information providing device 10 executes the provided information transmission process (step S105). For example, the transmission unit 13d transmits the generated provided information to the user terminal 20 of the user U.

(4-6.相性度学習処理)
第6に、情報提供装置10の学習部13eは、相性度学習処理を実行する(ステップS106)。例えば、学習部13eは、算出された利用者Uが提供可能な髪の態様に対する化粧ごとの相性度を学習する。
(4-6. Compatibility learning process)
Sixthly, the learning unit 13e of the information providing device 10 executes compatibility degree learning processing (step S106). For example, the learning unit 13e learns the degree of compatibility of each makeup with the calculated hair style that the user U can provide.

〔5.実施形態の効果〕
最後に、実施形態の効果について説明する。以下では、実施形態に係る処理に対応する効果1~7について説明する。
[5. Effect of Embodiment]
Finally, effects of the embodiment will be described. Effects 1 to 7 corresponding to the processing according to the embodiment will be described below.

(5-1.効果1)
上述した実施形態に係る処理では、利用者Uが提供可能な髪の態様に関する態様情報を取得し、取得した物品情報に基づいて、髪の態様と化粧との組合せの相性の度合を示す相性度を算出する。このため、本処理では、利用者Uに対して有益な情報を提供できる。
(5-1. Effect 1)
In the processing according to the above-described embodiment, mode information regarding the mode of hair that can be provided by the user U is acquired, and based on the acquired product information, the degree of compatibility indicating the degree of compatibility between the mode of hair and makeup is obtained. Calculate Therefore, useful information can be provided to the user U in this process.

(5-2.効果2)
上述した実施形態に係る処理では、髪の態様と当該態様の髪を有する対象者が施された化粧との組合せの相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このため、本処理では、利用者Uに対して有益な情報を、より効果的に提供できる。
(5-2. Effect 2)
In the processing according to the above-described embodiment, the degree of compatibility is calculated using a machine learning model that has learned the degree of compatibility between the combination of the hair style and the makeup applied to the subject having the hair of that style. Therefore, in this process, useful information can be provided to the user U more effectively.

(5-3.効果3)
上述した実施形態に係る処理では、髪の態様と化粧とを含む動画像により相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このため、本処理では、利用者Uに対して有益な情報を、より効果的にかつ高い精度で提供できる。
(5-3. Effect 3)
In the processing according to the above-described embodiment, the degree of compatibility is calculated using a machine learning model that has learned the degree of compatibility from moving images including hair styles and makeup. Therefore, in this process, useful information can be provided to the user U more effectively and with high accuracy.

(5-4.効果4)
上述した実施形態に係る処理では、化粧を施される対象者の属性ごとに相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このため、本処理では、利用者Uに対して有益な情報を、対象者の属性ごとに高い精度で提供できる。
(5-4. Effect 4)
In the processing according to the above-described embodiment, the degree of compatibility is calculated using a machine learning model that has learned the degree of compatibility for each attribute of the subject to whom makeup is applied. Therefore, in this process, useful information can be provided to the user U with high accuracy for each attribute of the target person.

(5-5.効果5)
上述した実施形態に係る処理では、化粧を施される対象者の状況ごとに相性の度合を学習した機械学習モデルを用いて、相性度を算出する。このため、本処理では、利用者Uに対して有益な情報を、対象者の状況ごとに高い精度で提供できる。
(5-5. Effect 5)
In the processing according to the above-described embodiment, the degree of compatibility is calculated using a machine learning model that has learned the degree of compatibility for each situation of the person to whom makeup is applied. Therefore, in this process, useful information for the user U can be provided with high accuracy for each target person's situation.

(5-6.効果6)
上述した本実施形態に係る処理では、化粧に関する化粧情報をさらに取得し、化粧情報が示す化粧のうち所定の閾値以上の相性度の化粧を特定し、提供情報を生成する。このため、本処理では、化粧情報を用いることによって、利用者Uに対して有益な情報を、より効果的に提供できる。
(5-6. Effect 6)
In the above-described processing according to the present embodiment, makeup information related to makeup is further acquired, makeup having a degree of compatibility equal to or higher than a predetermined threshold among the makeup indicated by the makeup information is specified, and provision information is generated. Therefore, in this process, by using the makeup information, useful information can be provided to the user U more effectively.

(5-7.効果7)
上述した本実施形態に係る処理では、髪の態様を提供する利用者Uに関する利用者情報をさらに取得し、利用者情報に基づいて化粧を特定し、提供情報を生成する。このため、本処理では、利用者情報を用いることによって、利用者Uに対して有益な情報を、より効果的に提供できる。
(5-7. Effect 7)
In the processing according to the present embodiment described above, user information regarding the user U who provides the hair style is further acquired, makeup is specified based on the user information, and provision information is generated. Therefore, in this process, by using the user information, useful information can be provided to the user U more effectively.

〔ハードウェア構成〕
また、上述した実施形態に係る情報提供装置10は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置10を例に挙げて説明する。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[Hardware configuration]
Also, the information providing apparatus 10 according to the above-described embodiment is implemented by a computer 1000 configured as shown in FIG. 9, for example. The information providing device 10 will be described below as an example. FIG. 9 is a diagram illustrating an example of a hardware configuration; The computer 1000 is connected to an output device 1010 and an input device 1020, and an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are buses. It has a form connected by 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 Arithmetic device 1030 operates based on programs stored in primary storage device 1040 and secondary storage device 1050, programs read from input device 1020, and the like, and executes various types of processing. The arithmetic unit 1030 is implemented by, for example, a CPU (Central Processing Unit), MPU (Micro Processing Unit), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that temporarily stores data used for various calculations by the arithmetic device 1030 . The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered. State Drive), flash memory, or the like. The secondary storage device 1050 may be an internal storage or an external storage. Also, the secondary storage device 1050 may be a removable storage medium such as a USB memory or an SD (Secure Digital) memory card. Also, the secondary storage device 1050 may be a cloud storage (online storage), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various information such as a display, a projector, and a printer. (Digital Visual Interface), HDMI (registered trademark) (High Definition Multimedia Interface), and other standardized connectors. Also, the input I/F 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, keypad, buttons, scanner, etc., and is realized by, for example, USB.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 Also, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, the output device 1010 and the input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 Also, the output device 1010 and the input device 1020 may be integrated like a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 Note that the input device 1020 includes, for example, optical recording media such as CDs (Compact Discs), DVDs (Digital Versatile Discs), PDs (Phase change rewritable discs), magneto-optical recording media such as MOs (Magneto-Optical discs), and tapes. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network I/F 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 Arithmetic device 1030 controls output device 1010 and input device 1020 via output I/F 1060 and input I/F 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the information providing device 10 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 130 by executing a program loaded on the primary storage device 1040 . Further, arithmetic device 1030 of computer 1000 may load a program acquired from another device via network I/F 1080 onto primary storage device 1040 and execute the loaded program. Further, the arithmetic unit 1030 of the computer 1000 may cooperate with another device via the network I/F 1080, and call functions, data, etc. of the program from another program of the other device for use.

〔その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換または変更を行うことができる。
〔others〕
Although the embodiments of the present application have been described above, the present invention is not limited by the contents of these embodiments. In addition, the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, replacements, or modifications of components can be made without departing from the gist of the above-described embodiments.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

例えば、上述した情報提供装置10は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。 For example, the information providing apparatus 10 described above may be implemented by a plurality of server computers, and depending on the function, may be implemented by calling an external platform or the like using an API (Application Programming Interface), network computing, or the like. can be changed flexibly.

また、上述してきた実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the control unit can be read as control means or a control circuit.

10 情報提供装置
11 通信部
12 記憶部
12a 態様情報記憶部
12b 化粧情報記憶部
12c 相性度情報記憶部
12d 提供情報記憶部
13 制御部
13a 取得部
13b 算出部
13c 生成部
13d 送信部
13e 学習部
20 利用者端末
30 化粧情報データベース
100 情報提供システム
10 information providing device 11 communication unit 12 storage unit 12a mode information storage unit 12b makeup information storage unit 12c compatibility information storage unit 12d provision information storage unit 13 control unit 13a acquisition unit 13b calculation unit 13c generation unit 13d transmission unit 13e learning unit 20 User terminal 30 Makeup information database 100 Information providing system

Claims (9)

利用者が提供可能な髪の態様に関する態様情報を取得する取得部と、
前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出部と、
前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成部と、
を備えることを特徴とする情報提供装置。
an acquisition unit that acquires mode information about the mode of hair that can be provided by a user;
a calculation unit that calculates a degree of compatibility indicating a degree of compatibility of a combination of the aspect and makeup based on the aspect information;
a generation unit that generates provision information to be provided to the user based on the degree of compatibility;
An information providing device comprising:
前記算出部は、髪の態様と当該態様の髪を有する対象者が施された化粧との組合せの相性の度合を学習した機械学習モデルを用いて、前記相性度を算出する、
ことを特徴とする請求項1に記載の情報提供装置。
The calculation unit calculates the degree of compatibility using a machine learning model that has learned the degree of compatibility between the mode of hair and the makeup applied to the subject having the hair of the mode.
2. An information providing apparatus according to claim 1, characterized by:
前記算出部は、髪の態様と化粧とを含む動画像により前記相性の度合を学習した前記機械学習モデルを用いて、前記相性度を算出する、
ことを特徴とする請求項2に記載の情報提供装置。
The calculation unit calculates the degree of compatibility using the machine learning model that has learned the degree of compatibility from moving images including hair styles and makeup.
3. The information providing apparatus according to claim 2, characterized by:
前記算出部は、化粧を施される対象者の属性ごとに前記相性の度合を学習した前記機械学習モデルを用いて、前記相性度を算出する、
ことを特徴とする請求項2または3に記載の情報提供装置。
The calculation unit calculates the degree of compatibility using the machine learning model that has learned the degree of compatibility for each attribute of the subject to whom makeup is applied.
4. The information providing device according to claim 2 or 3, characterized in that:
前記算出部は、化粧を施される対象者の状況ごとに前記相性の度合を学習した前記機械学習モデルを用いて、前記相性度を算出する、
ことを特徴とする請求項2から4のいずれか1項に記載の情報提供装置。
The calculation unit calculates the degree of compatibility using the machine learning model that has learned the degree of compatibility for each situation of the subject to whom makeup is applied.
5. The information providing device according to any one of claims 2 to 4, characterized by:
前記取得部は、対象者に施される化粧に関する化粧情報をさらに取得し、
前記生成部は、前記化粧情報が示す前記化粧のうち所定の閾値以上の相性度の前記化粧を特定し、前記提供情報を生成する、
ことを特徴とする請求項1から5のいずれか1項に記載の情報提供装置。
The acquisition unit further acquires makeup information related to makeup applied to the subject,
The generation unit identifies the makeup having a degree of compatibility equal to or higher than a predetermined threshold among the makeup indicated by the makeup information, and generates the provision information.
6. The information providing device according to any one of claims 1 to 5, characterized by:
前記取得部は、前記態様を提供する前記利用者に関する利用者情報をさらに取得し、
前記生成部は、前記利用者情報に基づいて前記化粧を特定し、前記提供情報を生成する、
ことを特徴とする請求項1から6のいずれか1項に記載の情報提供装置。
The acquisition unit further acquires user information about the user who provides the aspect,
The generating unit identifies the makeup based on the user information and generates the provided information.
7. The information providing device according to any one of claims 1 to 6, characterized by:
情報提供装置によって実行される情報提供方法であって、
利用者が提供可能な髪の態様に関する態様情報を取得する取得工程と、
前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出工程と、
前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成工程と、
を含むことを特徴とする情報提供方法。
An information providing method executed by an information providing device,
an acquisition step of acquiring mode information about the mode of hair that can be provided by the user;
a calculation step of calculating a degree of compatibility indicating the degree of compatibility of a combination of the aspect and makeup based on the aspect information;
a generating step of generating provided information to be provided to the user based on the degree of compatibility;
An information provision method characterized by comprising:
利用者が提供可能な髪の態様に関する態様情報を取得する取得手順と、
前記態様情報に基づいて、前記態様と化粧との組合せの相性の度合を示す相性度を算出する算出手順と、
前記相性度に基づいて、前記利用者に対して提供する提供情報を生成する生成手順と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
an acquisition procedure for acquiring mode information about the mode of hair that can be provided by the user;
a calculation procedure for calculating a degree of compatibility indicating a degree of compatibility of a combination of the aspect and makeup based on the aspect information;
a generation procedure for generating provision information to be provided to the user based on the degree of compatibility;
An information providing program characterized by causing a computer to execute
JP2022024327A 2022-02-18 2022-02-18 Information providing device, information providing method, and information providing program Pending JP2023121082A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022024327A JP2023121082A (en) 2022-02-18 2022-02-18 Information providing device, information providing method, and information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022024327A JP2023121082A (en) 2022-02-18 2022-02-18 Information providing device, information providing method, and information providing program

Publications (1)

Publication Number Publication Date
JP2023121082A true JP2023121082A (en) 2023-08-30

Family

ID=87797450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022024327A Pending JP2023121082A (en) 2022-02-18 2022-02-18 Information providing device, information providing method, and information providing program

Country Status (1)

Country Link
JP (1) JP2023121082A (en)

Similar Documents

Publication Publication Date Title
US10956009B2 (en) Method and system for interactive cosmetic enhancements interface
US10866716B2 (en) System and method for providing highly personalized information regarding products and services
JP6956389B2 (en) Makeup support device and makeup support method
JP6501939B2 (en) Model generation device, information distribution device, model generation method, information distribution method, model generation program, information distribution program, estimation device and estimation method
US20170132290A1 (en) Image Search using Emotions
US11861672B2 (en) Method, system, and non-transitory computer-readable medium for a digital personal care platform
WO2013122211A1 (en) Service determination device, service determination method, and computer-readable recording medium on which service determination program is recorded
JP2023121082A (en) Information providing device, information providing method, and information providing program
US20180121536A1 (en) Verification Assistance System and Method
KR102402550B1 (en) Method, apparatus and computer program for providing influencer searching service
JP2023121081A (en) Information providing device, information providing method, and information providing program
KR102497411B1 (en) Method for providing nail art service and System for providing nail art service
KR102316735B1 (en) Big data based personalized beauty class providing system
JP7387970B2 (en) Calculation device, calculation method, calculation program
KR20220137275A (en) Method and system for providing customized cosmetics recommendation service using big data
CN110119868B (en) System and method for generating and analyzing user behavior indexes in makeup consultation conference
JP7139270B2 (en) Estimation device, estimation method and estimation program
JP2023121049A (en) Information providing device, information providing method, and information providing program
Hagander et al. The Online Consumer Decision Journey in the Cosmetic Industry
JP7308317B1 (en) Information processing device, information processing method and information processing program
JP7308318B1 (en) Information processing device, information processing method and information processing program
JP6982675B1 (en) Information processing equipment, information processing methods, and programs
JP7292452B1 (en) Proposed device, proposed method, and proposed program
KR20180092159A (en) Method and apparatus for searching make-up product
Lee et al. A cognitive knowledge-based system for hair and makeup recommendation based on facial features classification

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026